Lo dijo en Fénix la especialista en inteligencia artificial Belén Ortega, al analizar el proyecto que se debate en el Congreso para establecer un marco legal sobre el uso de algoritmos, datos y sistemas automatizados.
18:01 | Martes 18 de Noviembre de 2025 | La Rioja, Argentina | Fenix Multiplataforma
En diálogo con Multiplataforma Fénix, la especialista en inteligencia artificial Belén Ortega analizó el proyecto de ley que comenzó a debatirse en comisiones del Congreso y que busca establecer un marco normativo para el desarrollo y uso de sistemas de IA en Argentina. Explicó que, a diferencia de Europa —donde “la regulación extrema frenó el avance tecnológico”— en la región latinoamericana aún no existen marcos legales completos, por lo que considera necesario comenzar la discusión para “proteger al ciudadano sin limitar la innovación”.
Ortega señaló que el proyecto propone segmentar los sistemas de inteligencia artificial en tres categorías de riesgo —inaceptable, alto riesgo y riesgo limitado— algo que genera posiciones encontradas. “Para algunos es una herramienta para identificar qué sistemas pueden ser perjudiciales y para otros es una forma de controlar lo que las personas pueden usar”, explicó. Además, sostuvo que habrá un extenso debate, ya que la regulación implica también decisiones éticas, y “la ética no es igual para todos”.
La especialista también comparó la situación argentina con otros modelos internacionales. Mencionó que China tiene una regulación “extrema” que incluye restricciones incluso al uso de redes sociales, mientras que en Europa se está revisando el marco legal vigente por su impacto en el desarrollo tecnológico. En Argentina, agregó, la falta de educación sobre inteligencia artificial hace que la población sea más vulnerable a fraudes, desinformación y campañas políticas manipuladas mediante imágenes o audios generados artificialmente, por lo que ve necesaria una normativa que garantice transparencia.
Finalmente, Ortega advirtió que el desafío será lograr un equilibrio: “No tiene que haber ni una extrema regulación ni tampoco una libertad total”. Señaló que una ley bien diseñada podría aportar claridad, proteger datos personales y evitar abusos, sin impedir el crecimiento de la industria tecnológica y las nuevas herramientas basadas en IA que ya forman parte de la vida cotidiana.