¿Es posible una Inteligencia Artificial responsable?

Tendencias
Agosto 29, 2024

La inteligencia artificial (IA) es un campo de la informática que busca crear sistemas capaces de realizar tareas que requieren inteligencia humana, como el aprendizaje y la toma de decisiones. Aunque esta ya desempeña un papel crucial en sectores como el transporte, la salud. agroalimentario y las finanzas, su crecimiento trae consigo varios riesgos y desafíos éticos. Además del impacto significativo en el empleo, donde según un estudio del Foro Económico Mundial, 85 millones de empleos podrían ser desplazados por la automatización para 2025, existen preocupaciones sobre la privacidad de los datos, la seguridad y el sesgo algorítmico, que pueden amplificar las desigualdades sociales existentes.

Algunos de los retos y consideraciones éticas que han de ser abordados por gobernantes, organismos internacionales, empresas tecnológicas, comunidad académica, investigadores, usuarios y consumidores y sociedad civil en general son:

  • Transparencia: la capacidad de entender y explicar cómo y por qué un sistema de IA toma ciertas decisiones es crucial para su adopción y confianza.
  • Privacidad: la recopilación y el uso de gran cantidad de datos personales plantean preocupaciones sobre la protección y privacidad de estos.
  • Prejuicios y equidad: los sistemas de Inteligencia Artificial pueden perpetuar o incluso amplificar sesgos existentes si no son diseñados y entrenados de manera adecuada.
  • Impacto en el empleo: la automatización impulsada por la IA puede transformar industrias y desplazar a trabajadores, creando la necesidad de estrategias para el reentrenamiento y la adaptación.
  • Desinformación y manipulación de la opinión pública: la denominada IA generativa es capaz de crear contenido falso (fake news) convincente a gran escala. Además, las denominadas deepfakes pueden generar vídeos y audios falsos que sean difíciles de distinguir de los reales.
  • Propiedad intelectual: se precisa un marco legal que aborde cuestiones como la autoría y derechos de las creaciones generadas por la IA.
  • Uso para actividades maliciosas: los sistemas de IA pueden ser explotados para actividades como ciberataques o fraudes.
  • Autonomía y control: algunos sistemas de IA muy avanzados podrían actuar de maneras inesperadas o no deseadas, planteando importantes riesgos sobre la pérdida del control humano.

Estos riesgos destacan la importancia de desarrollar e implementar la IA de manera ética y responsable, asegurando que sus beneficios se maximicen mientras se mitigan sus posibles peligros. Es crucial que las políticas y regulaciones acompañen el desarrollo tecnológico para enfrentar estos desafíos de manera eficaz.

 Estrategias y políticas en materia de Inteligencia Artificial

Con el fin de abordar algunos de los retos mencionados, se ha comenzado ya a implementar diversas estrategias y políticas:

  • Desarrollo de normativas y políticas éticas: muchos países y compañías están desarrollando ya regulaciones específicas para la IA. Por ejemplo, el pasado mes de marzo, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial con el fin de garantizar la seguridad y el respeto de los derechos fundamentales. Además, organizaciones como la ONU y la IEEE están trabajando en establecer normas internacionales para el uso seguro y responsable de la IA.
  • Protección de la Privacidad: leyes de protección de datos, como el Reglamento General de Protección de Datos (GDPR) en Europa, están diseñadas para proteger la privacidad de los individuos y asegurar que sus datos se manejen de manera ética.
  • Iniciativas por parte de la industria: entre las que podemos destacar “AI for Good” para la preparación del personal para los empleos del futuro o “Partnership on AI”, donde se reúne a diversas partes interesadas para abordar desafíos éticos, a la vez que se promueven prácticas responsables.
  • Investigación científica en seguridad de la IA: en los últimos años, debido al creciente interés en seguridad en la tecnología de IA, ha aumentado – aunque de manera modesta y aún insuficiente – la investigación en I+D en este importante tema. Uno de los primeros foros científicos en reunirse regularmente para tratar este asunto es WAISE, que este año celebra su séptima edición. Este es un taller científico dedicado a presentar y compartir las últimas investigaciones en ingeniería de seguridad de sistemas basados en IA, incluyendo el diseño éticamente alineado, el despliegue responsable, o los estándares y normas para asegurar su confiabilidad.

 ¿Es posible una IA responsable?

El concepto de «IA responsable» implica que los sistemas de IA se diseñen y utilicen de manera que sean seguros, éticos, transparentes y justos. Si bien la posibilidad de una inteligencia artificial (IA) responsable conlleva desafíos significativos y un compromiso continuo, es un objetivo alcanzable. Algunas de las estrategias que se han de comenzar a implementar para lograr este fin son:

  • Educación y Capacitación: se debe incluir la ética de la IA como parte fundamental de la formación de desarrolladores y científicos de datos, además de trabajar para el aumento de la conciencia pública sobre cómo funcionan los sistemas de IA y sus posibles impactos.
  • Colaboración Multisectorial: poder lograr una IA responsable pasa por fomentar la colaboración entre gobiernos, empresas, instituciones académicas y organizaciones de la sociedad civil para desarrollar y mantener estándares de IA responsables, además de crear comunidades de práctica donde los profesionales puedan compartir mejores prácticas y avances en IA responsable.
  • Investigación y Desarrollo Continuos: el desarrollo de herramientas que ayuden a detectar y mitigar los sesgos en los sistemas de IA, y una mayor investigación en métodos para mejorar transparencia de los algoritmos de IA guiarán indudablemente el camino hacia el objetivo marcado de una Inteligencia Artificial responsable.

Por lo tanto, la tarea de alcanzar una IA responsable no recae en un solo grupo, sino que es una tarea compartida que requiere la colaboración de múltiples actores que solo mediante un esfuerzo coordinado y transversal puede asegurar que la IA se desarrolle y utilice de manera que maximice sus beneficios y minimice sus riesgos para la sociedad.

Inteligencia Artificial en ARQUIMEA

Desde ARQUIMEA, como empresa tecnológica que opera a nivel global, hacemos uso de la Inteligencia Artificial para ofrecer soluciones a sectores de alta exigencia como el Biotecnológico con sistemas de reproducción asistida o el descubrimiento de nuevos fármacos, o el Aeroespacial con componentes satelitales de alta fiabilidad.

Además, ARQUIMEA Research Center, el centro de investigación del grupo ARQUIMEA ubicado en Canarias, cuenta con un orbital dedicado a investigar en el campo de la Inteligencia Artificial donde desarrolla proyectos de descubrimiento de fármacos asistido por IA, ingeniería de seguridad de IA para sistemas de conducción autónoma, o el modelado 3D acelerado a través de redes neuronales profundas; este último con aplicaciones no solo para el sector audiovisual, sino también para otros más diversos como decoración e interiorismo.

Además, todos los proyectos de ARQUIMEA Research Center pertenecen al proyecto QCIRCLE, cofinanciado por la Unión Europea y que tiene como objetivo la creación de un centro de excelencia científica en España.

 

“Financiado por la Unión Europea. No obstante, los puntos de vista y opiniones expresados son responsabilidad exclusiva del autor y no reflejan necesariamente los de la Unión Europea y ni la Unión Europea ni la autoridad que concede la subvención pueden considerarse responsables de los mismos.”

 

Compartir