31/07/2023

Inteligencia Artificial

Los desafíos que conlleva regular la inteligencia artificial

Distintos gobiernos avanzaron esta semana con la idea de regular la Inteligencia Artificial (IA) ante sus efectos en temas como seguridad, democracia, desinformación y el mercado laboral, pero la propia creación de un marco jurídico supone un desafío por la rápida evolución de esta tecnología, sus alcances y los desacuerdos entre países para alcanzar una convención común.

Un intento de lograr una forma de regulación intercontinental fue anunciado el miércoles pasado por la Unión Europea (UE) y Estados Unidos que "muy pronto" terminarán el borrador de un "código de conducta" para que las empresas del sector suscriban de forma voluntaria, con la idea que "todos los países de ideas afines" también lo adopten.


Esta falta de obligatoriedad podría restarle peso, aunque existe un antecedente de la voluntad de los propios actores del sector sobre algún tipo de intervención: a fines de marzo, un conjunto de académicos, expertos y empresarios, entre ellos Elon Musk (CEO de SpaceX, Tesla y Twitter) y Steve Wozniak (cofundador de Apple), pidieron una moratoria de seis meses en la investigación sobre IA al advertir "grandes riesgos para la humanidad".

"Lo interesante del discurso actual en torno a la regulación es que, normalmente, los gobiernos y las grandes empresas tecnológicas adoptaron puntos de vista opuestos. Lo que es único en el caso de la IA (en particular ChatGPT) es que expertos de muchas organizaciones están liderando el llamamiento a poner una pausa", explicó a Télam Stan Karanasios, profesor de Sistemas de Información en la Universidad de Queensland (Australia).

"Los gobiernos aprovecharon esta oportunidad para desarrollar una regulación", apuntó el académico, que se dedica a estudiar cómo la tecnología afecta a las organizaciones y la sociedad.

En ese marco, la UE prepara una serie de reglas de cumplimiento obligatorio que como muy pronto comenzarían a regir a finales de 2025, una fecha lejana para un sector en constante evolución que, si bien está dominado por gigantes como Microsoft (principal accionista de OpenAI , la firma que opera ChatGPT), Meta o Google, está poblado por nuevas plataformas que aparecen cada día gracias al código abierto.


China también tiene proyectos de regulación, en especial una "inspección de seguridad" de las herramientas de la IA.

El tema está en la agenda política del gigante asiático: el presidente Xi Jinping encabezó esta semana un encuentro del Partido Comunista en el que se debatió la necesidad de "dedicar esfuerzos para salvar la seguridad política y mejorar la gobernanza de la seguridad de los datos de Internet y la IA", consignado la agencia de noticias local Xinhua.

En Costa Rica, en tanto, diputados de diferentes partidos aparecieron el jueves pasado un proyecto de ley para regular la IA, con la curiosidad que fue redactado a través de ChatGPT. "La tecnología es un instrumento al servicio del ser humano y como tal debemos controlarlo", indicó la legisladora Vanessa Castro, una de las impulsoras del proyecto.

En Brasil también se presentó una iniciativa en el mismo sentido, Canadá fue pionera en buscar avanzar en una normativa, que también está en debate en Reino Unido, Australia o Japón, mientras que los líderes del G7 se reunieron hace dos semanas en Hiroshima pidieron "avanzar con los debates para lograr una IA digna de confianza, en consonancia con los valores democráticos compartidos".


De fondo, está el primer marco ético sobre inteligencia artificial aprobado en la Unesco en noviembre de 2021, con una serie de recomendaciones a sus 193 Estados miembros para aprovechar las ventajas de la tecnología y reducir los riesgos que conlleva.

Pero más allá de este acuerdo común, la aparición de distintas propuestas en varias latitudes ya forman por sí una barrera para imponer normas efectivas ante una tecnología de alcance planetario.

"Es necesario un enfoque más armonizado a escala mundial, pero está claro que llegar a un consenso global será difícil", apuntó Karanasios.

Otro obstáculo son los puntos a regular, ya que "los expertos no se ponen de acuerdo sobre los peligros" de la IA, aunque el académico enumeró algunas cuestiones que podrían incluirse como seguridad, privacidad, desinformación, robo de conocimientos y perturbaciones del mercado laboral .


En ese sentido, Michèle Finck, profesora en la cátedra de Derecho e Inteligencia Artificial en la Universidad de Tubinga (Alemania), afirmó a esta agencia que es "difícil responder en abstracto" debido a las cuestiones de la IA que normalmente se presentan.

"Es una tecnología de uso general que puede adoptar la forma de un software o integrarse en otros productos. Como tal, puede aplicarse de muchas maneras diferentes: puede ser un robot quirúrgico, un software que genera deepfakes (archivos de video, imagen o voz que fueron manipulados para parecer hiperrealistas, pero son falsos) o una herramienta que ofreció canciones basadas en preferencias musicales personales", apuntó.

Y contrapuso: "Mientras un deepfake que se difunde a gran escala a través de las redes sociales puede provocar disturbios políticos y alterar los procesos democráticos (por ejemplo, imágenes comprometedoras de antes políticos de unas elecciones), en el caso de los robots quirúrgicos es algo que contribuirá fomentarse si permiten llevar a cabo procedimientos que actualmente no pueden realizarse".

Por otro lado, relativizó la situación actual al afirmar que la IA "no opera en un vacío legal", ya que deben regirse por las normas existentes, como las leyes de protección de datos personales (utilizadas por Italia para prohibir temporalmente ChatGPT), de responsabilidad por productos defectuosos (en el caso de los dispositivos médicos) o normas de difamación (para los perjuicios que puede generar un deepfake).


Más allá de esto, existe otro desafío para toda regulación que es el de no quedar obsoleta ante el cambio tecnológico constante.

"El tiempo es sin duda un problema, ya que la IA sigue evolucionando a gran velocidad. Aunque esto es un reto, no significa que la regulación sea imposible. El proyecto de ley de la UE, por ejemplo, es un intento de una definición general de la IA, que remite a una lista de tecnologías específicas que pueden actualizarse con el tiempo", afirmó Finck.

Karanasios no comparte esa mirada: "El lapso de tiempo entre la acción gubernamental y el rápido ritmo de los cambios determinados la regulación post-hoc (posterior a los hechos) en un tigre sin dientes. Para entonces, la IA y las empresas que la se desarrollan son demasiado poderosas y están demasiado integradas en la sociedad".

"La creación de regulación una vez que estos sistemas de IA estén completamente integrados en la sociedad, no será eficaz. Lo hemos aprendido con el caso de plataformas digitales como Facebook, etc. Es una conversación que tenemos que tener ahora como sociedad", concluyó .

COMPARTE TU OPINION | DEJANOS UN COMENTARIO

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.

Educación

10/07/2024

Educación

Educación

Cultivando emociones: la charla inspiradora de Begoña Ibarrola sobre educación emocional

En este evento, Ibarrola abordó la importancia de la educación emocional en el desarrollo integral de los niños y jóvenes, ofreciendo una visión profunda y práctica sobre cómo educar desde el corazón. La vidriera

Subscribite para recibir todas nuestras novedades

  © 2024 THE WIZARD AGENCY S.R.L. | Desmarcarte.com | Av. Belgrano 863, 4 Piso A, C.A.B.A.