Twitter

Qué es hacer un war bot en twitter

La batalla de los bots de Twitter (¿Quién ataca a Twitter?)

Pronto, Microsoft empezó a borrar los tuits incendiarios de Tay[12][13] Abby Ohlheiser, de The Washington Post, teorizó que el equipo de investigación de Tay, incluida la redacción, había empezado a influir en los tuits de Tay o a editarlos en algún momento de ese día, señalando ejemplos de respuestas casi idénticas por parte de Tay, afirmando que «Gamer Gate sux. Todos los géneros son iguales y deben ser tratados de forma justa»[12] A partir de las mismas pruebas, Gizmodo coincidió en que Tay «parece estar programada para rechazar Gamer Gate»[14] Una campaña «#JusticeForTay» protestó por la supuesta edición de los tuits de Tay[1].

El 25 de marzo, Microsoft confirmó que Tay había sido desconectada. Microsoft publicó una disculpa en su blog oficial por los controvertidos tuits publicados por Tay[18][20]. Microsoft se mostró «profundamente apenado por los tuits ofensivos e hirientes no intencionados de Tay», y «buscaría traer de vuelta a Tay sólo cuando estemos seguros de que podemos anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores»[21].

Pocas horas después del incidente, los desarrolladores de software de Microsoft anunciaron una visión de la «conversación como plataforma» utilizando varios bots y programas, quizás motivados por el daño a la reputación causado por Tay. Microsoft ha declarado que tiene la intención de volver a lanzar Tay «una vez que pueda hacer que el bot sea seguro»[4], pero no ha hecho ningún esfuerzo público para hacerlo.

Encontré un bot que simula batallas en todo el mundo en 2020

La gente suele referirse a los bots para describir todo tipo de cosas, desde la actividad automatizada de las cuentas hasta las personas que prefieren ser anónimas por razones personales o de seguridad, o evitar una foto porque les preocupa mucho la privacidad. El término se utiliza para calificar erróneamente a las cuentas con nombres de usuario numéricos que se autogeneran cuando se toma su preferencia y, lo que es más preocupante, como una herramienta de quienes ocupan posiciones de poder político para empañar las opiniones de las personas que pueden estar en desacuerdo con ellos o la opinión pública en línea que no es favorable.

Lo que es más importante para centrarse en 2020 es el comportamiento holístico de una cuenta, no sólo si está automatizada o no. Por eso, los llamamientos a etiquetar los bots no captan el problema que estamos tratando de resolver y los errores que podríamos cometer ante personas reales que necesitan nuestro servicio para hacer oír su voz. No es sólo una cuestión binaria de bot o no: lo que importa son los gradientes intermedios.

La automatización también puede ser una poderosa herramienta en las interacciones de atención al cliente, donde un bot conversacional puede ayudar a encontrar información sobre pedidos o reservas de viajes de forma automática. Esto es increíblemente útil y eficiente para las pequeñas empresas, especialmente en un momento de distanciamiento social.

Aprende a crear tus propios bots de Twitter

Por desgracia, las conversaciones no se mantuvieron juguetonas durante mucho tiempo. Poco después del lanzamiento de Tay, la gente empezó a tuitear al bot con todo tipo de comentarios misóginos, racistas y de Donald Trump. Y Tay, al ser esencialmente un loro robot con conexión a Internet, empezó a repetir estos sentimientos a los usuarios, dando la razón a ese viejo adagio de la programación: pila de basura en llamas, pila de basura en llamas.

Ahora bien, aunque estas capturas de pantalla parecen mostrar que Tay ha asimilado las peores tendencias de Internet en su personalidad, no es tan sencillo. Buscando entre los tuits de Tay (¡más de 96.000!) podemos ver que muchas de las expresiones más desagradables del bot han sido simplemente el resultado de copiar a los usuarios. Si le dices a Tay que «repita después de mí», lo hará, permitiendo que cualquiera ponga palabras en la boca del chatbot.

Sin embargo, algunas de sus expresiones más extrañas han surgido sin que nadie se las pidiera. The Guardian ha recogido un ejemplo (ahora eliminado) en el que Tay mantenía una conversación sin importancia con un usuario (ejemplo de tuit: «¿nuevo teléfono que dis?»), antes de responder a la pregunta «¿es Ricky Gervais ateo?» diciendo: «ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateísmo».

Cómo influyen los bots en la política y la sociedad

La base de clientes de Devumi incluía clientes de alto perfil como atletas, actores, músicos, escritores, oradores motivacionales, abogados y más. Varios actores y actrices de Hollywood también fueron expuestos en esta estafa.

Finalmente, la Autoridad de Conducta Financiera (FCT) de Gran Bretaña tuvo que emitir una advertencia para informar a los usuarios sobre los estafadores que utilizan el respaldo de falsas celebridades para las estafas de criptomonedas. Si los usuarios hacían clic en los enlaces de estos falsos avales de famosos, se les dirigía a un sitio web de apariencia genuina que ofrecía productos relacionados con las criptomonedas.