Examinando los temores del pionero de la IA Geoffrey Hinton sobre la IA

Examinando los temores del pionero de la IA Geoffrey Hinton sobre la IA

Cuando el destacado científico informático y ganador del Premio Turing Geoffrey Hinton se retiró de Google debido a lo que dijo que eran preocupaciones de que la tecnología de inteligencia artificial se estaba saliendo de control y representando un peligro para los humanos, provocó un frenesí en el mundo de la tecnología.

Hinton, que trabajó a tiempo parcial en Google durante más de una década, es conocido como el «padrino de la IA». El pionero de la IA ha realizado importantes contribuciones al desarrollo del aprendizaje automático, el aprendizaje profundo y la técnica de retropropagación, un proceso de entrenamiento de redes neuronales artificiales.

En sus propias palabras

Si bien Hinton atribuyó parte de su decisión de retirarse el 1 de mayo a su edad, el hombre de 75 años también dijo que lamenta algunas de sus contribuciones a la inteligencia artificial.

Durante una sesión de preguntas y respuestas en la conferencia EmTech Digital 2023 de MIT Technology Review el 3 de mayo, Hinton dijo que había cambiado de opinión sobre cómo funciona la tecnología de IA. Dijo que ahora cree que los sistemas de IA pueden ser mucho más inteligentes que los humanos y aprenden mejor.

«Cosas como GPT-4 saben mucho más que nosotros», dijo Hinton, refiriéndose a la última versión del modelo de lenguaje grande del laboratorio de investigación OpenAI. «Tienen una especie de conocimiento de sentido común sobre todo».

Cuanto más aprende la tecnología sobre los humanos, mejor puede manipular a los humanos, dijo.

Las preocupaciones de Hinton sobre los riesgos de la tecnología de IA son análogas a las de otros líderes de IA que recientemente pidieron una pausa en el desarrollo de IA.

Si bien el científico informático no cree que sea posible una ruptura, dijo que los riesgos de la tecnología de inteligencia artificial y su uso indebido por parte de delincuentes y otros malhechores, especialmente aquellos que la usarían con fines políticos dañinos, pueden convertirse en un peligro para la sociedad.

“Lo que queremos es una manera de asegurarnos de que incluso si son más inteligentes que nosotros, harán cosas que nos beneficiarán”, dijo Hinton. «Tenemos que intentar hacer eso en un mundo con malos actores que quieren construir soldados robot que maten personas».

Carrera por la IA y la necesidad de regulación

Si bien Hinton aclaró que su decisión de dejar Google no se debió a ninguna irresponsabilidad específica por parte del gigante tecnológico con respecto a la tecnología de inteligencia artificial, el científico informático se une a un grupo de empleados notables de Google para disparar la alarma sobre la tecnología de inteligencia artificial.

READ  Nuevo spooler de impresión de día cero de Windows que se puede utilizar a través de servidores de impresión remotos

El año pasado, el exingeniero de Google, Blake Lemoine, afirmó que el chatbot de IA del proveedor, LaMDA, es consciente y puede mantener conversaciones espontáneas y tener sentimientos humanos. Lemoine también dijo que Google actuó con cautela y desaceleró el desarrollo después de proporcionarle sus datos.

Si bien algunos consideran que Google ha sido lo suficientemente responsable en sus esfuerzos de inteligencia artificial, la velocidad a la que los principales proveedores de tecnología, en particular el archirrival de Google, Microsoft, han introducido nuevos sistemas de inteligencia artificial (a partir de la integración de ChatGPT en Azure y aplicaciones de escritorio) hizo que Google se apresurara más rápido. . en lo que se ha convertido en una frenética carrera de IA.

Sin embargo, el ritmo vertiginoso al que evolucionan Google y Microsoft puede ser demasiado rápido para asegurar a las empresas y a los usuarios de tecnología de IA que las innovaciones de IA son seguras y están listas para un uso eficaz.

“Están publicando cosas a un ritmo acelerado sin suficientes pruebas”, dijo Chirag Shah, profesor de la escuela de información de la Universidad de Washington. «No tenemos ninguna regulación. No tenemos puntos de control. No tenemos nada que les impida hacer esto».

Pero el gobierno federal se ha dado cuenta de los problemas con la IA y la tecnología de IA generativa.

El 4 de mayo, la administración de Biden invitó a los directores ejecutivos de los proveedores de inteligencia artificial Microsoft, Alphabet, OpenAI y Anthropic a discutir la importancia de la innovación responsable y confiable.

La administración también dijo que los desarrolladores de las principales empresas de IA, incluidas Nvidia, Stability AI y Hugging Face, participarán en evaluaciones públicas de los sistemas de IA.

Pero la casi ausencia de puntos de control y regulaciones hace que la tecnología sea riesgosa, especialmente porque la IA generativa es un sistema de autoaprendizaje, dijo Shah.

Los sistemas de IA generativa no regulados y sin restricciones podrían conducir al desastre, principalmente cuando personas con intenciones políticas sin escrúpulos o piratas informáticos criminales hacen un mal uso de la tecnología.

«Estas cosas se nos están escapando tan rápido que es solo cuestión de tiempo antes de que los malos actores hagan cosas o que esta tecnología haga cosas por sí sola que no podamos detener», dijo Shah. Por ejemplo, los actores maliciosos podrían usar la IA generativa para defraudar o incluso intentar desencadenar ataques terroristas, o intentar perpetuar e inculcar prejuicios.

Sin embargo, al igual que con muchas tecnologías, la regulación sigue cuando hay una adopción masiva, dijo Usama Fayyad, profesor y director ejecutivo del Instituto de IA Experiencial de la Universidad del Noreste.

Y aunque ChatGPT ha atraído a más de 100 millones desde que OpenAI lo lanzó en noviembre pasado, la mayoría de esos usuarios solo lo usan ocasionalmente y no dependen de él a diario como lo hacen con otras herramientas populares de IA como Google Maps o Translate. , dice Fayad.

«No puedes regular hasta que entiendas la tecnología», continuó. Debido a que los reguladores aún no comprenden completamente la tecnología, aún no están en condiciones de regularla.

«Al igual que con los autos, y con las armas, y con muchas otras cosas, [regulation] rezagado durante mucho tiempo”, dijo Fayyad. “Cuanto más importante se vuelve la tecnología, más probable es que tengamos una regulación vigente.

Por lo tanto, la regulación probablemente llegará a medida que la tecnología de inteligencia artificial se integre en cada aplicación y ayudará a la mayoría de los trabajadores del conocimiento a hacer su trabajo más rápido, dijo Fayyad.

La inteligencia de la tecnología AI

Fayyad agregó que el hecho de que «piense» rápidamente no significa que la tecnología de IA sea más inteligente que los humanos.

“Creemos que solo los humanos inteligentes pueden sonar elocuentes y parecer fluidos”, agregó Fayyad. «Confundimos fluidez y elocuencia con inteligencia».

Debido a que los grandes modelos de lenguaje siguen modelos estocásticos (lo que significa que siguen prácticas comunes pero también incluyen un poco de aleatorización), están programados para contar una historia, lo que significa que pueden terminar contando la mala historia. Además, su naturaleza es querer parecer inteligente, lo que puede llevar a los humanos a verlos como más inteligentes de lo que realmente son, dijo Fayyad.

Además, el hecho de que las máquinas sean buenas para tareas discretas no significa que sean más inteligentes que los humanos, dijo Sarah Kreps, profesora de John L. Wetherill en el departamento de gobierno y profesora adjunta de derecho en la Universidad de Cornell.

READ  El chatbot de WhatsApp de Robin Hood Army para ayudar a las personas mayores a registrar sus vacunas

“Donde los humanos sobresalen es en tareas más complejas que combinan múltiples procesos cognitivos que también involucran empatía, adaptación e intuición”, dijo Krepps. «Es difícil programar una máquina para hacer estas cosas, y eso es lo que hay detrás de la elusiva inteligencia artificial general (AGI)».

AGI es un software (que aún no existe formalmente) que tiene las habilidades cognitivas generales de un humano, lo que teóricamente le permitiría realizar cualquier tarea que un humano pueda hacer.

Próximas etapas

Por su parte, Hinton dijo que está poniendo el tema en primer plano para tratar de inspirar a las personas a encontrar formas efectivas de lidiar con los riesgos de la IA.

Mientras tanto, Krepps dijo que la decisión de Hinton de hablar ahora, décadas después de haber trabajado por primera vez en la tecnología, podría parecer hipócrita.

“Él, más que nadie, debería haber visto hacia dónde se dirigía la tecnología y qué tan rápido”, dijo.

Por otro lado, agregó que la postura de Hinton podría hacer que las personas sean más cautelosas con respecto a la tecnología de IA.

La capacidad de usar la IA para el bien requiere que los usuarios sean transparentes y responsables, dijo Shah. “También tendrá que haber consecuencias para las personas que abusan de él”, dijo.

«Tenemos que encontrar un marco de rendición de cuentas», dijo. «Siempre habrá daños. Pero si podemos controlar gran parte de ellos, podemos mitigar algunos de los problemas mucho mejor de lo que podemos hacerlo ahora».

Para Hintonquizás lo mejor sería ayudar a la próxima generación a tratar de usar la tecnología de inteligencia artificial de manera responsable.

“Lo que la gente como Hinton puede hacer es ayudar a crear un conjunto de estándares en torno al uso apropiado de estas tecnologías”, dijo Kreps. «Los estándares no evitarán el abuso, pero pueden estigmatizarlo y contribuir a las salvaguardas que pueden mitigar los riesgos de la IA».

Esther Ajao es escritora especializada en software y sistemas de inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *