Como sabemos, hemos estado explorando las herramientas de IA y disfrutando de lo que pueden hacer, pero hay otro lado de esa moneda: asegurarse de que la IA se use de manera responsable.
En esta entrega, compartirnos un desarrollo importante que ocurrió en la Unión Europea. En 2024, aprobaron una ley histórica llamada la Ley de IA, que básicamente es el primer gran conjunto de reglas para la IA en cualquier parte del mundo. Incluso si no estás en Europa, esto probablemente afectará los productos de IA que todos usamos.
¿Por qué una ley para la IA?: La ley de la UE trata sobre la seguridad, la transparencia y la confianza. Quieren fomentar la innovación en la IA, pero también proteger a las personas de posibles daños, como algoritmos sesgados o deepfakes inquietantes.
Aquí hay algunas cosas clave que hace la Ley de IA, en términos sencillos: La IA tiene que presentarse. Si estás conversando con un bot, la ley dice que tienes derecho a saber que es un bot. No se permite que la IA pretenda ser humana sin decírtelo. Así que en el futuro, cuando usemos un chatbot de atención al cliente o cualquier agente de IA, espera una pequeña nota que diga “Hola, soy un asistente de IA”. Esta transparencia es excelente: genera confianza porque sabes con qué estás tratando.
Etiquetas en contenido generado por IA. Cualquier imagen, video o audio generado por IA que podría confundirse con algo real debe estar claramente etiquetado como creado por IA. Por ejemplo, si alguien hace un video de IA de un político diciendo algo que nunca dijo, legalmente debería tener una marca de agua o una advertencia. Esto ayuda a combatir la desinformación.
Prohibición de cosas peligrosas. La ley prohíbe ciertos usos de IA que se consideran demasiado peligrosos. Por ejemplo, los sistemas de IA que hacen “puntuación social” – como evaluar tu confiabilidad según tu comportamiento o personalidad – no están permitidos. También se prohíbe: IA que explota las vulnerabilidades de las personas (imagina un juguete con IA que incita a un niño a hacer algo dañino – no está permitido).
Reglas estrictas para la IA de alto riesgo. Algunos sistemas de IA tienen un gran impacto en nuestras vidas: piensa en una IA que ayuda a decidir si obtienes un préstamo, si tu currículum es seleccionado, o una IA que diagnostica tu radiografía. La UE llama a estos sistemas “IA de alto riesgo“. La ley exigirá que dichos sistemas sean probados exhaustivamente para verificar su exactitud, equidad y sesgos, con supervisión humana. Debes estar informado y debe haber una manera de apelar o que un humano lo revise.
Encuentro alentador que los gobiernos estén abordando los impactos éticos y sociales de la IA. Significa que a medida que continuamos aprendiendo y usando estas herramientas, hay una red de seguridad cada vez mayor. Es un gran cambio, pero positivo para mantener la IA beneficiosa.
Cuanto me alegraría ver que los gobiernos de Latinoamérica estén abordando los impactos éticos y sociales de la IA. Significa que, a medida que seguimos aprendiendo y utilizando estas herramientas, existe una red de seguridad cada vez mayor. Es un gran cambio, pero uno positivo para mantener la IA beneficiosa.
Como siempre, agradecemos el patrocinio de Productos Caribeña
