SOFTNEWS

Por P*nche Grosera, Microsoft Retira A Su Bot Millenial Tay

STAFF/@michangoonga

tay inteligencia artificial microsoft

Microsoft ha retirado a su bot llamado Tay, el cual era capaz de mantener conversaciones en redes sociales, publicó tuits ofensivos.

El robot de inteligencia artificial llamado Tay se comportaba como una adolescente, era capaz de mantener conversaciones en redes sociales, pero «aprendió» tanto que comenzó a realizar comentarios feministas y racistas.

Twitter fue capaz de convertir a Tay, en un robot que aseguraba que las feministas no debían existir, que Donal Trump sería un buen presidente y que George W. Bush fue el responsable del atentado en el World Trade Center de Nueva York en el año 2001.

Microsoft explicaba que el sistema era capaz de aprender a interactuar con la gente conforme platicaba con ellos, pero no contaban con la astucia de los tuiteros, quienes mostraron su «lado oscuro» comenzando a emitir comentarios ofensivos que posteriormente Tay retuiteaba.

Posterior a los comentarios ofensivos, Microsoft los borró y suspendió la cuenta para realizar «ajustes» al bot:

Nos dimos cuenta de los esfuerzos coordinados de algunos usuarios para hacer que Tay respondiera de forma inapropiada.

Tay tuiteo el siguiente mensaje para todos sus seguidores:

Botón volver arriba