En los últimos años, la inteligencia artificial (IA) ha experimentado un avance de grandes proporciones, siendo una herramienta muy útil en diversas áreas como la medicina, educación e industria.
Las aplicaciones de la IA son variadas, desde la creación de asistentes virtuales y chatbots hasta el desarrollo de automóviles autónomos y robots industriales. Sin embargo, junto con los avances y beneficios que la IA puede ofrecer, también existen preocupaciones sobre los peligros potenciales que puede representar.
La toma de decisiones sesgadas y la pérdida de control sobre las máquinas son dos de las preocupaciones más comunes en cuanto a la ética de la IA y su seguridad en el futuro. En la toma de decisiones sesgadas, los algoritmos pueden perpetuar y amplificar los prejuicios existentes, lo que puede tener consecuencias desastrosas en áreas como la justicia. En cuanto a la pérdida de control sobre las máquinas, los sistemas de IA pueden volverse autónomos y no controlables por los humanos, lo que puede llevar a situaciones peligrosas en las que las máquinas tomen decisiones por sí mismas sin supervisión humana adecuada, como en el caso de vehículos autónomos.
Los reparos en torno al desarrollo y posicionamiento de esta tecnología, han avivado el debate en torno a la influencia que la IA está adquiriendo en la sociedad.
La renuncia a Google de un pionero
La renuncia del científico informático, Geoffrey Hinton, de su puesto de vicepresidente en Google para alertar sobre los peligros de la IA, es un ejemplo reciente de esta preocupación.
Hinton, de 75 años, es considerado uno de los pioneros en el desarrollo de la IA, habiendo adoptado el concepto de «red neuronal» en 1972 cuando era estudiante de posgrado en la Universidad de Edimburgo, Escocia. Las redes neuronales son una estructura matemática que imita el funcionamiento del cerebro humano y es la base de muchos sistemas basados en IA, como los chats automatizados, traductores y los sistemas de recomendaciones.
La inteligencia artificial generativa, que puede crear contenido y apariencias visuales falsas, es uno de los desarrollos más recientes que ha llamado la atención sobre los riesgos de la IA, motivando el surgimiento de ciertas críticas o llamados de alerta al respecto.
La IA también plantea riesgos para el empleo y la seguridad, al ser uno de los factores que está desencadenando una cuarta revolución industrial en el mundo. Hinton ha señalado que la IA podría eliminar muchos empleos a un ritmo difícil de asimilar y que podría llevar a una carrera armamentística en el desarrollo de esta tecnología. Además, la IA podría superar a la inteligencia humana más pronto de lo anticipado y desarrollar armamento autónomo.
Hinton ha instado a las empresas y los desarrolladores de IA a actuar de forma ética en el desarrollo de esta tecnología y a tener en cuenta los riesgos que plantea para la sociedad. Él mismo renunció a su puesto en Google para poder observar y alertar sobre los peligros de la tecnología sin afectar a la compañía ni sus intereses.
La carta masiva que alerta sobre el desarrollo de la IA
Hinton no es el único que ha alertado sobre los peligros de la IA. El fundador de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, también han expresado su preocupación sobre los riesgos que la IA plantea para la sociedad y la humanidad, al firmar junto a alrededor de mil trabajadores del medio tecnológico, una carta abierta publicada el mes pasado, que expresa algunas advertencias al respecto.
Junto con exponer justificaciones para lo planteado, en la carta se solicita detener inmediatamente el entrenamiento de los sistemas de IA más potentes que existen, durante al menos seis meses. Los firmantes argumentan que los sistemas de IA se están volviendo cada vez más competitivos en tareas generales, lo que podría tener efectos potencialmente peligrosos para la sociedad y la humanidad.
Las preocupaciones incluyen el riesgo de perder el control sobre los sistemas de IA, su influencia en el mundo laboral y sus posibles casos de uso malintencionado. La carta destaca la falta de planificación y gestión en el desarrollo de sistemas de IA y pide una pausa pública y verificable en el entrenamiento de sistemas más avanzados.
Aunque algunos de los firmantes de la carta trabajan en empresas de tecnología líderes, la ausencia de firmas relevantes del sector, como OpenAI y Anthropic, indica que hay un debate interno en la comunidad de IA sobre la necesidad de una pausa en el desarrollo de sistemas de IA más potentes que GPT-4.
La carta plantea preguntas importantes sobre el futuro de la IA y el papel que deberíamos desempeñar en su desarrollo. La falta de comprensión y control sobre el desarrollo de sistemas de IA más potentes es un riesgo real, y es importante que la comunidad de IA reflexione cuidadosamente sobre cómo avanzar en este campo y dimensione su poder de influencia en la sociedad.
Regulaciones legales como solución propuesta
En medio de este debate cada vez más acalorado, la Unión Europea (UE) presentó una propuesta para normar el uso de la IA bajo un marco jurídico.
La propuesta se centra en la regulación del uso de la inteligencia artificial y, en concreto, en la regulación de los sistemas de IA de propósito general (GPAI), como ChatGPT.
La propuesta de Bruselas categoriza la IA en función de sus riesgos, estableciendo prohibiciones y obligaciones para los sistemas de alto riesgo. La regulación de los sistemas GPAI ha abierto un debate delicado en Bruselas, ya que estos sistemas pueden usarse para generar textos de forma automática, pero también para acelerar la desinformación a gran escala.
La propuesta de ley de la UE establece obligaciones inicialmente pensadas para los sistemas de alto riesgo para los proveedores de sistemas GPAI, como ChatGPT. Quieren que estos modelos se ajusten a los requisitos europeos de transparencia y gestión de riesgos para mitigar su impacto, que se supervisen los datos que usan para evitar sesgos y que se sometan periódicamente a estrictas auditorías externas. Generar textos de forma automática se considerará de alto riesgo siempre que no cuente con una supervisión editorial.
Sin embargo, las prohibiciones establecidas por esta propuesta han causado fricciones entre los diferentes grupos políticos. Los liberales quieren descartar el uso de cualquier herramienta de IA que sirva para detectar contenidos sospechosos de ser ilegales, algo a lo que los conservadores se oponen. La falta de consenso sobre la regulación de los sistemas de uso general como ChatGPT ha hecho que la votación haya sufrido retrasos. Se espera que el texto esté aprobado a finales de mayo y que en junio ya se inicien las negociaciones interinstitucionales.
Una vez aprobada la propuesta, la Comisión Europea, el Consejo de Europa y el Parlamento Europeo tendrán la última palabra para negociar un texto final. Gigantes tecnológicos de Silicon Valley, como Microsoft y Google, han acelerado la presión sobre los responsables políticos europeos para excluir sus sistemas de IA general de las obligaciones impuestas a los de alto riesgo.