Por el uso seguro y responsable de la IA

 Las perspectivas de desarrollo de la inteligencia artificial (IA), así como la preocupación por los riesgos que plantea esta tecnología, se han convertido en un tema candente en el mundo de la tecnología, especialmente desde el lanzamiento del peso pesado ChatGPT hace un año.
Foto de ilustración.
Foto de ilustración.

En la conferencia de desarrolladores de OpenAI celebrada en San Francisco (California), el creador de Chat GPT y CEO de OpenAI, Sam Altman, afirmó: "Podremos hacer más, crear más y tener más. A medida que la inteligencia se integre en todas partes, todos tendremos superpoderes a la carta".

Sin embargo, para aprovechar la IA y limitar sus riesgos, la comunidad internacional ha intensificado la cooperación para garantizar el uso seguro y eficiente de esta rama de la tecnología.

El fabricante de ChatGPT, OpenAI, ha tomado medidas para atraer a los desarrolladores con precios más bajos y la posibilidad de personalizar fácilmente los "agentes" de IA para que ayuden con cualquier cosa.

La empresa está introduciendo la posibilidad de crear "agentes" personalizados, llamados "GPT", que pueden encargarse de tareas específicas, como consejos de negociación comercial, trucos para quitar manchas de la ropa, ayuda con los deberes y soporte técnico.

"Cualquiera puede crear fácilmente su propio GPT, sin necesidad de codificación", explica OpenAl en una entrada de su blog. "Puedes crearlos para ti mismo, para uso interno de tu empresa o para todo el mundo".

A finales de este mes, OpenAI lanzará una "tienda" de GPT, similar al actual modelo de tienda de aplicaciones App Store de Apple, y planea añadir una forma de que los desarrolladores ganen dinero en función de cuánta gente utilice sus GPT.

Los últimos movimientos de OpenAI deberían facilitar la creación de interfaces conversacionales de IA en aplicaciones o sitios web, abriendo la posibilidad a más empresas. Este es uno de los avances que demuestra el gran potencial de la IA y su aplicación en la vida.

Los enormes avances de la IA aportan beneficios, pero también suscitan preocupaciones, como la pérdida de puestos de trabajo, los ciberataques y la capacidad humana para mantener el control sobre los sistemas impulsados por la IA.

El imparable auge de la IA tendría consecuencias duraderas en muchos ámbitos, como el trabajo y la cultura, mientras que el desarrollo de esta tendencia en unos pocos países y empresas aumentaría las tensiones geopolíticas.

El Secretario General de la ONU, António Guterres, advirtió de que esta situación podría exacerbar la desigualdad en el mundo. Un informe publicado por la Organización para la Cooperación y el Desarrollo Económicos el 6 de noviembre reveló que, aunque cada vez hay más personas preocupadas por los riesgos éticos que plantea el florecimiento de las aplicaciones de IA, los empresarios y empleadores prestan muy poca atención a esta cuestión en los procesos de contratación.

En la mayoría de los países, menos del uno por ciento de los puestos de trabajo tienen "ética de la inteligencia artificial" como palabra clave. El CEO de SpaceX y Tesla, el multimillonario Elon Musk, considera que la rápida expansión de la IA es uno de los riesgos existenciales a los que se enfrenta el planeta.

La IA puede satisfacer los deseos humanos, dijo Musk, quien advirtió, sin embargo, que llegará un momento en que a la gente le resultará difícil encontrar sentido a la vida si estos robots humanoides sustituyen a los humanos en todo, en cualquier momento y en cualquier lugar.

Guterres llamó a subirse a la ola de IA, pero pidió una respuesta unida, sostenible y global a los riesgos derivados del auge de esta tecnología. La reciente Cumbre sobre la IA celebrada en el Reino Unido emitió una declaración conjunta sobre la seguridad de esta rama tecnológica. Según el documento, 28 países y la Unión Europea (UE) coincidieron en la necesidad de intensificar los esfuerzos globales por garantizar el uso seguro de la IA.

Los asistentes a la cumbre coincidieron en que pueden surgir riesgos sustanciales a partir de un posible uso indebido o de problemas no intencionados de control, y señalaron una especial preocupación por la ciberseguridad, la biotecnología y la desinformación.

Por otro lado, la declaración reconoció que aquellos que desarrollan capacidades fronterizas de IA tienen la responsabilidad de garantizar la seguridad de estos modelos. Debido a la necesidad de profundizar la comprensión de los riegos y capacidades de la IA, los participantes acordaron trabajar juntos para apoyar una red de investigación científica de este campo tecnológico.