Científicos, empresarios y dirigentes de países han expresado su preocupación por los riesgos de la IA. La Agencia de Cooperación Policial de la Unión Europea (Europol) alertó recientemente del uso de la IA en tramas de fraude postal e información falsa.
Más de mil personas, incluidos empresarios, especialistas e investigadores hicieron un llamamiento a pausar seis meses de entrenamiento de modelos de IA más fuertes que GPT-4, lanzados recientemente por la compañía OpenAI.
El mensaje advierte de que es necesario suspender el desarrollo de sistemas avanzados de IA hasta que se elaboren, apliquen y supervisen por expertos independientes nuevas normas de seguridad para los diseños de IA.
No se puede negar que la IA se ha convertido en una valiosa herramienta tanto para los trabajadores como para la vida cotidiana. Sin embargo, estos avances técnicos parecen ser un arma de doble filo en la dura batalla contra los delincuentes sofisticados.
De acuerdo con expertos en seguridad cibernética de Australia, los piratas informáticos están utilizando la aplicación ChatGPT para crear correos electrónicos de phishing tan "reales" que incluso los empleados capacitados en seguridad caen en la trampa.
El director de negocio de VMware Australia, Darren Reid, dio a conocer que al infiltrar al sistema informático de una organización, los hackers utilizan la IA a fin de evitar ser detectados y continuar extendiendo su ataque.
Según un informe de la compañía de software y ciberseguridad BlackBerry, el 51 por ciento de 1 500 especialistas tecnológicos del mundo pronostican que ChatGPT causaría un ataque cibernético el próximo año.
Varios delincuentes han hecho trampas recientemente utilizando Deepfake. Se trata de una tecnología que utiliza inteligencia artificial para crear productos de audio, imagen y vídeo que imitan con precisión elementos del mundo real.
Aparte de ser aprovechar por los delincuentes, los productos de IA plantean numerosos desafíos, tales como el riesgo de fraude académico, fuga de datos, violaciones de privacidad y eliminación de puestos de trabajo.
En un esfuerzo por llenar los vacíos en la IA y ayudar a las personas a dominar verdaderamente la tecnología, los países abogan por perfeccionar las leyes relativa a la regulación de la IA.
El Comité de IA de la Cámara de Comercio de los Estados Unidos instó al Congreso a elaborar con urgencia normas respecto a las herramientas de IA. El gobierno del Reino Unido publicó un Libro Blanco con pautas específicas sobre la implementación de regulaciones relacionadas con el tema.
El texto, presentado al Parlamento y al Departamento de Ciencia, Innovación y Tecnología del Reino Unido, plantea cinco requisitos para las empresas tecnológicas, incluido seguridad, fuerte protección, transparencia y habilidad de explicar, legitimidad, responsabilidad de explicación y gestión, competitividad y remediación.
El Gobierno australiano también lanzó una red en apoyo al uso seguro y ético de la IA por parte de las empresas. La red brinda servicios como orientación práctica y capacitación sobre leyes, estándares, principios de gobernanza, liderazgo, entre otros, sobre esta tecnología.
Los especialistas del país oceánico advirtieron que la IA podría aportar hasta 14,7 billones de dólares a la economía mundial en 2030. La IA en particular, y la alta tecnología en general, ofrecen oportunidades a los usuarios, pero también le plantean desafíos.
El gran reto ahora es controlar IA para desarrollar productos de alta tecnología de manera responsable, ya que la incapacidad de ajustar y dominar la tecnología tendrá consecuencias impredecibles y podría causar pérdidas a la economía, afectando tanto a los individuos como a la sociedad en su conjunto.