RCA Telegram News California - Golpeado por la desinformación, Brasil da pasos para regular la IA

Golpeado por la desinformación, Brasil da pasos para regular la IA
Golpeado por la desinformación, Brasil da pasos para regular la IA / Foto: Pablo PORCIUNCULA - AFP

Golpeado por la desinformación, Brasil da pasos para regular la IA

En un video que circula en las redes sociales en Brasil, Anitta anuncia supuestamente un juego de apuestas. "Gané 300 reales (60 USD) jugando el otro día", afirma una voz parecida a la de la cantante brasileña, que dice estar "anonadada".

Tamaño del texto:

El contenido, que también utiliza la imagen del astro del fútbol Neymar, publicita una plataforma que promete pagar a los usuarios en efectivo. "Fake news", acusaron los asesores del jugador. "Burdo montaje", respondió el equipo de Anitta, contactado por AFP.

Sus voces e imágenes fueron manipuladas con herramientas de Inteligencia Artificial (IA), una tecnología que impulsa a las autoridades brasileñas a encontrar respuestas urgentes, especialmente de cara a las elecciones municipales de octubre.

Brasil es uno de los países más conectados del mundo, con más celulares que habitantes, y en los últimos años fue muy golpeado por la desinformación, inclusive a nivel político.

El expresidente Jair Bolsonaro fue declarado en 2023 inelegible por ocho años por abuso de poder y uso indebido de los medios de comunicación por afirmar, sin pruebas, que el sistema electoral brasileño no era seguro.

- IA, comicios e investigaciones -

Con la IA el reto es aún mayor. "Los videos falsificados pueden usarse para manipular la opinión pública, difamar individuos e interferir en los procesos democráticos", explica la informática Ana Carolina da Hora.

La ONG Center for Countering Digital Hate advirtió el miércoles de los riesgos de la IA en un año marcado por contiendas electorales en el mundo, al comprobar la facilidad con que se pueden crear imágenes falsas de los candidatos en las elecciones de Estados Unidos.

En Brasil, la policía empezó a identificar casos en que esta tecnología contribuyó a la desinformación en el contexto electoral.

A finales de 2023, los investigadores identificaron un caso de difamación electoral contra el alcalde de la ciudad de Manaos (norte). Un audio con la voz manipulada del político en el que insulta a docentes del municipio fue compartido en redes sociales. Casos similares se investigan en otros dos estados.

- Prohibidos los "deepfakes" -

Con las elecciones municipales en el horizonte, el tema moviliza a autoridades y legisladores.

El Tribunal Superior Electoral (TSE), que inhabilitó a Bolsonaro y cuya misión es garantizar elecciones transparentes y democráticas, aprobó en febrero una propuesta que establece reglas para el uso de la IA en el contexto electoral.

La norma, que se aplicará en los próximos comicios, prohíbe el uso de "deepfakes" (tecnología que permite manipular rostros y voces) y restringe el uso de "chatbots" (robots conversacionales) y avatares en la campaña.

Además, establece que deberá identificarse el contenido manipulado.

El presidente del TSE, Alexandre de Moraes, señaló que en las municipales el tribunal tendrá que "combatir las noticias falsas y las milicias digitales anabolizadas por la inteligencia artificial" y destacó cómo el uso de la tecnología "deepfake" puede servir para "cambiar el resultado de las elecciones".

- Discriminación -

El Congreso también entró en el debate, pero con el foco puesto en regular la aplicación de la IA en la vida social y económica del país.

Una de las propuestas en discusión, del presidente del Senado, Rodrigo Pacheco, prevé la regulación de los distintos escenarios en los que se puede aplicar la IA.

No existe "una solución única para regular la inteligencia artificial", explica Bruno Bioni, director de Data Privacy Brasil, una organización de protección de datos y derechos digitales, que subrayó que la IA afecta a sectores que van de las telecomunicaciones a la salud.

Además, en un país tan diverso como Brasil, la IA puede causar un peligro específico: amplificar la discriminación.

El uso de la IA para reconocimiento facial en el ámbito de la seguridad pública, sostiene Bioni, ya "ha mostrado estar mal calibrado y amplifica la discriminación cuando miramos a las personas encarceladas ilegalmente. En su mayoría son personas negras".

Para Bioni, que integró la comisión de expertos que dio origen a la propuesta de Pacheco, el proyecto está "muy preocupado por la discriminación, en especial la indirecta, que es aquella en la que no existe necesariamente una intencionalidad de quien programa".

El presidente del Senado espera que el proyecto de ley sea aprobado en abril.

A.Romano--RTC