El mundo por equilibrar el desarrollo de la inteligencia artificial

Con un gran potencial de desarrollo, la inteligencia artificial (IA) es comparable a un fuerte imán que atrae grandes inversiones, no solo de empresas sino de numerosos países. Sin embargo, además de acelerar la investigación y aplicación de la IA, muchos países también han establecido "barreras de seguridad" para controlar los peligros potenciales de esta rama tecnológica.
Foto ilustrativa. (Foto: Barco/Vietnam+)
Foto ilustrativa. (Foto: Barco/Vietnam+)

Junto con explosión de la IA en los últimos tiempos, los países están cada vez más enfocados en equilibrar la gestión de riesgos y la innovación en esta tecnología. El Comité de Mercado Interior y la Comisión de Libertades Civiles (PE) del Parlamento Europeo aprobaron recientemente un proyecto de reglamento para salvaguardar el desarrollo de la IA, lo que constituye un primer paso pionero en los esfuerzos mundiales por establecer una base legal para frenar los excesos de esta tecnología en rápida evolución.

Con las nuevas normas, los eurodiputados quieren que los desarrolladores de IA evalúen la seguridad, presenten soluciones para gestionar los datos y mitigar los riesgos de los productos antes de comercializarlos. Según la propuesta de los legisladores europeos, modelos generativos como ChatGPT, el chatbot desarrollado por OpenAI, deben garantizar la transparencia sobre el hecho de que el contenido es generado por un sistema de IA, no por humanos.

Los miembros del PE también acordaron incluir la prohibición del uso del reconocimiento facial en espacios públicos y de las herramientas policiales predictivas. Propusieron que las herramientas de IA debían clasificarse según su nivel de riesgo percibido, desde bajo hasta inaceptable. Los sistemas de alto riesgo tendrán que someterse a una regulación más estricta.

El PE explicó en un comunicado de prensa que la nueva normativa incluye principios y criterios para asegurar la supervisión humana, la seguridad, la transparencia, la trazabilidad, la no discriminación y el respeto al medio ambiente por los sistemas de la IA. Según analistas, este es un paso importante que allana el camino para el nacimiento del primer documento jurídico integral a nivel mundial sobre la IA. Los legisladores de la UE votarán el borrador de la normativa en una sesión plenaria a mediados de junio. A continuación, el texto será debatido por los Estados miembros de la UE, el Parlamento Europeo y la Comisión Europea.

La rápida evolución de la IA obliga a muchos gobiernos a mantenerse al día con los avances de esta tecnología, pero también a actuar para limitar sus riesgos. La Casa Blanca anunció una inversión de 140 millones de dólares para lanzar siete Institutos Nacionales de Investigación de la IA, en un nuevo intento de la administración del presidente Joe Biden para mitigar los peligros potenciales de esta disciplina tecnológica.

Mientras tanto, la Autoridad de Competencia y Mercados del Reino Unido declaró que comenzaría a investigar el impacto de la inteligencia artificial en los consumidores, las empresas y la economía, y examinaría la implementación de nuevos controles sobre las tecnologías de IA como ChatGPT de OpenAI. En Japón se llevó a cabo la Conferencia de Estrategia de la IA con el objetivo de desarrollar esta rama tecnológica y resolver los problemas que surjan durante este proceso.

Muchos analistas señalan que los beneficios y ventajas de aplicar la IA son innegables, pero el gran avance de esta tecnología también suscita preocupaciones acerca de sus consecuencias impredecibles.

Meta, la empresa matriz de Facebook, advirtió que los piratas informáticos están aprovechando el interés que despiertan las nuevas herramientas de la IA, como el ChatGPT, para inducir a los internautas a instalar códigos maliciosos en sus dispositivos. Meta detectó y bloqueó más de mil sitios que ofrecían herramientas de IA similares a ChatGPT. La empresa también detectó más de mil enlaces maliciosos que se promocionaban como herramientas de ChatGPT.

Los expertos también advierten sobre el peligro del deepfake, una técnica basada en la IA que permite editar imágenes y videos falsos de personas para apropiarse de bienes o difundir desinformación, la cual ha suscitado preocupación entre los internautas. Los deepfakes se utilizan con diversos fines, entre los que figura la venganza, el fraude financiero, la manipulación política y el chantaje. Se estima que las pérdidas provocadas por estas falsificaciones ascendieron a decenas de millones de dólares a nivel mundial.

Según estimaciones, a principios de 2023 el valor de mercado de la IA totalizó 207,9 mil millones de dólares y para 2028 podría superar el billón de dólares. Cada vez es más urgente construir un marco jurídico para prevenir los riesgos potenciales de este campo tecnológico. La ONU afirmó que es importante controlar el uso de la IA, señalando que esta tecnología, sin importar cuanto se desarrolle, debe garantizar los derechos humanos como un factor central.