La innovación asociada al desarrollo de la inteligencia artificial (IA) genera adhesiones, pero también debates y alertas. En este caso, la novedad viene de la mano de la IA más avanzada, conocida como general o AGI, por su sigla en inglés, y los cuestionamientos que hicieron algunos de sus creadores. Sobre todo, en el aspecto regulatorio y de control por parte de los Estados.
Unos 15 profesionales, algunos de forma anónima por ser empleados activos de Open AI, creadora de ChatGPT, algunos ex empleados de esa empresa, junto a otros de Google DeepMind y Anthropic, publicaron una carta abierta con advertencias y cuatro consideraciones titulada “Un derecho a advertir sobre la inteligencia artificial avanzada”.
“Somos empleados actuales y anteriores de empresas de inteligencia artificial de vanguardia y creemos en el potencial de la tecnología de inteligencia artificial para brindar beneficios sin precedentes a la humanidad”, dice en su primer párrafo y agrega que “también entendemos los graves riesgos que plantean estas tecnologías”.
“Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana. Las propias empresas de IA han reconocido estos riesgos, al igual que los gobiernos de todo el mundo y otros expertos en IA”, continúa la misiva y advierte que las empresas abocadas a este desarrollo “sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que todos lo compartirán voluntariamente”.
En ese sentido, esta misiva hace un llamamiento para que las empresas que dedican su labor al desarrollo y robustecimiento de la IA avanzada se comprometan en cuatro puntos, en buena medida vinculadas a la gestión del riesgo y las preocupaciones del personal.
Allí solicitan que las compañías desarrolladoras impongan la prohibición a la crítica por las “preocupaciones” que la cuestión del riesgo pueda suscitar, que no tomen represalias sobre los trabajadores; a la par que se faciliten procesos anónimos verificados para que los empleados planteen sus inquietudes, tanto al directorio corporativo como a los reguladores y organismos relevantes.
Entre los firmantes se encuentran Daniel Kokotajlo y William Saunders, dos trabajadores de OpenAI, en las áreas de seguridad y de gobernanza, que renunciaron en este primer semestre del año, tal como fue reflejado en las noticias difundidas.
El uso de los datos, la seguridad, el desafío ético y la cuestión de la previsibilidad de la innovación tecnológica en torno a la IA fue el tema de un evento realizado por TeleSemana.com, donde los diferentes actores de la industria aportaron su mirada y enfoque,
Sucede que, aunque la innovación no se detiene y los montos invertidos en su desarrollo hayan crecido en hasta ocho veces en un año, las preocupaciones urgen, tanto como los debates regulatorios que se dan en todo en el mundo. Entre ellos, los avances dados en Brasil y en Chile, o el acuerdo sellado en la Unión Europea.
Inclusive, hace apenas tres meses, un millar de tecnólogos, especialistas, científicos e investigadores de todo el mundo, propusieron detener los entrenamientos de la inteligencia artificial más potente que GPT-4 por, al menos, seis meses. Sin embargo, no fue posible.