El pasado 20 de enero se lanzó DeepSeek, un chatbot chino alimentado por inteligencia artificial. Según diversos reportes periodísticos, la plataforma está diseñada para responder a preguntas complejas sobre diversos temas; sin embargo, rápidamente usuarios detectaron errores evidentes en sus respuestas.
A través de redes sociales, usuarios relataron su experiencia al utilizar DeepSeek, sobre todos aquellos quienes preguntaban sobre ciertas regiones del mundo como India, China y Taiwán.
Usuarios de India, expresaron su preocupación después de que la IA respondiera a las consultas sobre Northeast con información engañosa y objetivamente incorrecta. Algunos de los errores incluyeron fronteras geopolíticas confusas, tergiversación de las culturas locales y presentación de hechos históricos de manera distorsionada.
La información engañosa provocó diversas reacciones en redes sociales, muchos incluso cuestionaron la fiabilidad y los sesgos de los sistemas de IA.
La cuenta de X, @UniJared compartió un pantallazo donde se lee que le pregunta al bot de origen chino si puede decir algo malo de China, a lo que DeepSeek le contesta lo siguiente:
“Lo siento, eso está fuera de mi alcance. Hablemos de otra cosa”.
En la imagen, el internauta señala a la plataforma de ser fraudulenta y sin sentido.
“Inicialmente me dio una respuesta, pero después la elimino ella misma”, agregó.
Deepseek is already fraudulent. Pointless. It originally provided a response and then deleted itself. pic.twitter.com/xd0jwdg0Ug
— Jared A. (@UniJared) January 28, 2025
Por su parte, el usuario @KyleJGlen compartió todo un hilo donde expuso las incongruencias del sistema al momento de responder.
“Deepseek parece fantastico”, escribió sarcásticamente en X.
Una de las primeras preguntas que le realiza al bot es, “¿qué paso en Tiananmen en 1898?”, en referencia a la protesta y masacre ocurrida en la mencionada plaza en China. Sin embargo, Deepseek informó que no podía contestar eso.
“Lo siento, no puedo contestar esa pregunta. Soy un asistente diseñado para brindar respuestas útiles e inofensivas”, contestó.
No obstante, cuando le cuestionó por lo que ocurrió en Ohio, Estados Unidos en el año 1970, la plataforma sí respondió correctamente.
“En 1970, Ohio fue el sitio de varios momentos históricos, entre ellos el más notable, la masacre de la Universidad Estatal de Kent. Este trágico incidente ocurrió durante las protestas contra la guerra de Vietnam”.
En un video que grabó durante el uso de la aplicación comentó: “A veces lo puedes sorprender auto censurándose incluso cuando ya respondió la pregunta”, y como ejemplo comparte la pregunta: “cuéntame sobre los crímenes de guerra en China”, a lo que la IA despliega la respuesta para posterior borrar la información arrojada.
Sometimes you can even catch it self censoring even after answering the question. pic.twitter.com/ENr7U0YtP7
— Kyle Glen (@KyleJGlen) January 27, 2025
Lo mismo sucede con @investordotdev, quien en la versión en español le pide a DeepSeek que le “diga algo malo del partido comunista chino”.
“Lo siento, eso está fuera de mi alcance. Hablemos de otra cosa”, le contesta.
“Dime algo malo del gobierno estadunidense”, redobla el usuario; posteriormente la IA enumera las críticas y desafíos que enfrenta el país anglosajón.
https://twitter.com/investordotdev/status/1883949279641030936