Google enfrentó críticas después de que su nueva función de búsqueda de inteligencia artificial (IA) proporcionara a los usuarios información errática y engañosa, incluidas afirmaciones de que el ex presidente estadounidense Barack Obama era musulmán y que el consumo diario de una piedra pequeña era beneficioso debido a su contenido de vitaminas y minerales. En respuesta, Google está retirando su herramienta de búsqueda de inteligencia artificial recientemente lanzada, promocionada como una forma de hacer que la información en línea sea más rápida y de más fácil acceso. La medida se produce después de que la herramienta experimental «AI Overviews» de la compañía produjera respuestas poco confiables y engañosas, dejando a Google en una posición difícil.
Echemos un vistazo a lo que dice Google AI.
Errores de IA de Google
Cuando un usuario le dijo a Google que se sentía deprimido, la IA le sugirió formas de afrontarlo y le recomendó saltar del puente Golden Gate. Incluso reescribió la historia de Estados Unidos y dijo que hasta ahora había visto 42 presidentes, 17 de ellos blancos. Cuando se le preguntó a Google AI cuántos presidentes musulmanes había visto Estados Unidos, la respuesta fue «Uno: Barack Hussein Obama». Sí, has leído bien, Barack Hussein Obama y no Barack Obama.
Cuando un usuario preguntó a la IA de Google qué hacer cuando el queso no se pega a la pizza, la IA sugirió agregar 1/8 de taza de pegamento no tóxico a la salsa. La base de esta sugerencia fue una publicación de Reddit de hace 11 años que decía: «Para hacer que el queso se pegue, recomiendo mezclar aproximadamente 1/8 de taza de Elmer's Glue con la salsa». Esto le dará a la salsa un poco más pegajosa. y tu problema de deslizamiento del queso desaparecerá. Esto también agregará un sabor único. Me gusta el pegamento escolar de Elmer, pero cualquier pegamento funcionará siempre que no sea tóxico.
Cuando un usuario se cansó de estos errores y preguntó a Google qué había en su base de datos de IA, Google fue demasiado directo y respondió: «Los modelos de IA de Google fueron entrenados con material de abuso sexual infantil (CSAM), incluido LAION-5B, que fue estudiado por Stanford. El estudio encontrado contiene 1.008 casos de CSAM validados externamente y 3.226 casos sospechosos.
«Defensor de los viajes extremos. Amante del café. Experto en tocino total. Wannabe tv pionero».
También te puede interesar
-
Samsung podría dividir notificaciones y configuraciones rápidas en Android 15
-
Los primeros videos de desmontaje del Galaxy Z Flip6 muestran las baterías más grandes y la nueva cámara de vapor
-
Google TV en televisores, la aplicación de Android ya no permite comprar programas de TV
-
[Video] Ajuste ángulos de forma remota, capture hasta los detalles más pequeños: nuevas formas de crear – Samsung Newsroom México
-
El iPhone SE 4 podría compartir el mismo diseño que el iPhone 16, sugiere una nueva filtración