Loreiro y Coria piden regular la Inteligencia Artificial en Misiones

Los diputados del PRO, Mikaela González Coria y Horacio Loreiro, presentaron un proyecto proponiendo crear el marco regulatorio para el desarrollo, la puesta en el mercado, en servicio y la utilización de los sistemas de Inteligencia Artificial en la Provincia.

«El presente proyecto de ley tiene por objeto la necesidad de regular la Inteligencia Artificial (IA) para proteger a las personas y al medio ambiente, mientras se fomenta la innovación y el desarrollo responsable. El rápido avance de la IA presenta tanto oportunidades como riesgos, por lo que resulta pertinente establecer un marco legal de seguridad y confianza», fundamentaron.

PROYECTO DE LEY
LA CÁMARA DE REPRESENTANTES DE LA PROVINCIA
SANCIONA CON FUERZA DE
LEY
LEY PROVINCIAL DE INTELIGENCIA ARTIFICIAL
CAPÍTULO I:
DISPOSICIONES GENERALES
ARTÍCULO 1.– Objeto. La presente ley tiene por objeto establecer normas
armonizadas para el desarrollo, la puesta en el mercado, la puesta en servicio y la
utilización de los sistemas de Inteligencia Artificial (IA) en la Provincia de Misiones,
con el fin de promover una Inteligencia Artificial centrada en el ser humano, fiable y
segura. Se busca proteger a las personas y al medio ambiente de los efectos perjudiciales
de los sistemas de Inteligencia Artificial, al mismo tiempo que se apoya la innovación y
se fomenta la adopción responsable de esta tecnología. –
ARTÍCULO 2.– Ámbito de Aplicación. La presente ley se aplica a:
1. Los proveedores que pongan en el mercado o pongan en servicio sistemas
de IA en la Provincia de Misiones, independientemente de si están establecidos
dentro o fuera de la Provincia.
2. Los responsables del despliegue de sistemas de IA que estén establecidos
o ubicados en la Provincia.
3. Los proveedores y responsables del despliegue de sistemas de IA
establecidos fuera de la Provincia, en la medida en que el resultado de dichos
sistemas esté destinado a ser utilizado en la Provincia de Misiones. –
ARTÍCULO 3.– Definiciones. A los efectos de esta Ley, se entenderá por:
Sistema de IA: Un sistema basado en una máquina que, para unos objetivos explícitos o
implícitos, infiere a partir de la información de entrada la manera de generar resultados
de salida como predicciones, contenidos, recomendaciones o decisiones que pueden
influir en entornos físicos o virtuales.
Proveedor: Cualquier persona humana o jurídica que desarrolle un sistema de IA o que
tenga un sistema de IA desarrollado para que sea puesto en el mercado o puesto en
servicio bajo su propio nombre o marca. Responsable del despliegue: Cualquier persona humana o jurídica, autoridad pública,
órgano u organismo que utilice un sistema de IA bajo su propia autoridad. –

CAPÍTULO II:
PRÁCTICAS DE IA PROHIBIDAS
ARTÍCULO 4.–. Prácticas de IA Prohibidas. Se prohíben las siguientes prácticas de
IA:
1. El uso de técnicas subliminales o manipuladoras que puedan distorsionar
sustancialmente el comportamiento de una persona o grupo, llevándolos a tomar
una decisión que de otro modo no habrían tomado.
2. Los sistemas de IA utilizados para la evaluación o clasificación de
personas físicas (conocido como “puntuación social”) basada en el
comportamiento social o rasgos personales, si conduce a un tratamiento
perjudicial o desproporcionado.
3. La utilización de sistemas de identificación biométrica remota en tiempo
real en espacios de acceso público con fines de aplicación de la ley, salvo en
casos excepcionales y justificados, previa autorización judicial. –

CAPÍTULO III:
SISTEMAS DE IA DE ALTO RIESGO
ARTÍCULO 5.– Clasificación de Alto Riesgo. Un sistema de IA será considerado de
alto riesgo cuando genere un riesgo significativo para la salud, la seguridad o los
derechos fundamentales de las personas. Se considerarán de alto riesgo, entre otros, los
sistemas de IA utilizados en:
1. Gestión y operación de infraestructuras críticas (agua, gas, electricidad,
transporte);
2. Formación educativa o profesional que determine el acceso de una
persona a la educación o al mercado laboral;
3. Contratación y gestión de trabajadores, incluyendo la selección,
evaluación y rescisión de contratos;
4. Determinación de la elegibilidad de personas para prestaciones de la
seguridad social o servicios de emergencia;
5. Administración de justicia y procesos democráticos. –
ARTÍCULO 6.– Obligaciones para los Sistemas de IA de Alto Riesgo. Los
proveedores de sistemas de IA de alto riesgo deberán:
1. Establecer un sistema de gestión de riesgos.
2. Utilizar conjuntos de datos de alta calidad para el entrenamiento, la
validación y la prueba de los sistemas.
3. Elaborar y mantener actualizada la documentación técnica que demuestre
el cumplimiento de los requisitos de la presente ley.
4. Garantizar una supervisión humana adecuada, que permita anular las
decisiones del sistema.
5. Proporcionar instrucciones de uso claras y comprensibles a los
responsables del despliegue. –

CAPÍTULO IV:
TRANSPARENCIA Y ALFABETIZACIÓN EN IA
ARTÍCULO 7.– Obligaciones de Transparencia. Los proveedores deberán garantizar
que los sistemas de IA destinados a interactuar directamente con personas humanas las
informen de que están interactuando con una IA, salvo cuando sea evidente por el
contexto. Asimismo, los proveedores de modelos de IA de uso general (como los
grandes modelos de lenguaje) deberán publicar un resumen suficientemente detallado de
los datos utilizados para su entrenamiento. –
ARTÍCULO 8.– Alfabetización en IA. Los proveedores y responsables del despliegue
adoptarán medidas para garantizar que su personal tenga un nivel de alfabetización en IA
suficiente para operar y utilizar correctamente los sistemas. La Autoridad de Aplicación
promoverá la alfabetización en IA para que los ciudadanos comprendan sus beneficios,
riesgos y derechos. –

CAPÍTULO V:
AUTORIDAD DE APLICACIÓN E INNOVACIÓN
ARTÍCULO 9.– Autoridad de Aplicación. La Autoridad de Aplicación de la presente
ley será el Ministerio de Educación, Ciencia y Tecnología de la Provincia de Misiones y
será responsable de la supervisión del mercado, la vigilancia y la aplicación de la
presente ley. ARTÍCULO 10.– Espacios Controlados de Pruebas. La Autoridad de Aplicación
establecerá espacios controlados de pruebas («sandboxes») para la IA, que faciliten el
desarrollo y la prueba de sistemas de IA innovadores bajo estricta supervisión
regulatoria. Estos espacios deben estar diseñados para promover la innovación
responsable, garantizar la seguridad y mejorar la seguridad jurídica de los
desarrolladores. –
ARTÍCULO 11.– Códigos de Conducta. La Autoridad de Aplicación fomentará la
elaboración de códigos de conducta voluntarios que promuevan la adopción responsable
de la IA, la inclusión, la diversidad y la evaluación de los impactos ambientales. –

CAPÍTULO VI:
DISPOSICIONES FINALES
ARTÍCULO 12.– Régimen de Sanciones. El incumplimiento de las disposiciones de la
presente ley será sancionado por la Autoridad de Aplicación, conforme a un régimen de
sanciones que se establecerá en la reglamentación respectiva. Las sanciones serán
proporcionales a la gravedad de la infracción, considerando la naturaleza, el alcance, la
duración y el número de personas afectadas. –
ARTÍCULO 13.– Revisión y Actualización. La Autoridad de Aplicación evaluará
periódicamente la necesidad de modificar el listado de sistemas de alto riesgo y las
prácticas prohibidas, teniendo en cuenta la evolución tecnológica y los avances de la
sociedad de la información. –
ARTÍCULO 14.– Convenios. Autorícese a la Autoridad de Aplicación a celebrar
convenios con organizaciones y entidades nacionales o internacionales, publicas u
privadas, especializadas en la materia que tiendan a facilitar la aplicación de la presente
ley. –
ARTÍCULO 15.– Reglamentación. El Poder Ejecutivo Provincial reglamentará la
presente ley, estableciendo las medidas necesarias para su efectiva implementación. –
ARTÍCULO 16.– Presupuesto. El Poder Ejecutivo Provincial queda facultado a
efectuar adecuaciones, modificaciones y reestructuraciones en el Presupuesto General de
la Administración Pública Provincial a los fines del cumplimiento de lo establecido en la
presente ley. –
ARTÍCULO 17.– Comuníquese al Poder Ejecutivo Provincial.

–FUNDAMENTOS
El presente proyecto de ley tiene por objeto la necesidad de regular la
Inteligencia Artificial (IA) para proteger a las personas y al medio ambiente, mientras
se fomenta la innovación y el desarrollo responsable. El rápido avance de la IA presenta
tanto oportunidades como riesgos, por lo que resulta pertinente establecer un marco legal
de seguridad y confianza.
La iniciativa legislativa que impulsamos busca garantizar que la IA se
desarrolle de manera ética, centrada en el ser humano y de forma segura. Al establecer
normas armonizadas para el desarrollo, puesta en el mercado y utilización de los
sistemas de IA en la Provincia de Misiones, con ello queremos mitigar los posibles
efectos perjudiciales que esta tecnología podría tener.
Además, un aspecto clave del proyecto es la clasificación y regulación
específica de los sistemas de IA de alto riesgo. Al identificar aquellos sistemas que
pueden generar un riesgo significativo para la salud, la seguridad o los derechos
fundamentales de las personas, la ley impone obligaciones claras a los proveedores,
como la gestión de riesgos, la calidad de los datos y la supervisión humana. Esto
garantiza que las aplicaciones críticas de la IA, como en la gestión de infraestructuras o
la justicia, se manejen con la debida cautela.
La transparencia es otro pilar fundamental. Se establece la exigencia de que
los usuarios sean informados cuando interactúan con un sistema de IA. También
queremos promover la alfabetización en IA para que los ciudadanos comprendan los
beneficios y riesgos de esta tecnología, fomentando una adopción más informada y
responsable. El proyecto también prohíbe explícitamente ciertas prácticas manipuladoras
o de vigilancia masiva, como el uso de técnicas subliminales o la «puntuación social»,
para proteger la libertad y los derechos de las personas.
Finalmente, el proyecto sienta las bases para un ecosistema de IA
innovador y seguro en la provincia y el establecimiento de espacios controlados de
pruebas («sandboxes») para facilitar el desarrollo de nuevas tecnologías bajo una
supervisión regulatoria estricta, promoviendo la seguridad jurídica de los desarrolladores
y la innovación responsable.
En virtud de los fundamentos esgrimidos precedentemente y los que
oportunamente expondremos solicitamos el acompañamiento del presente proyecto de
ley a este Alto Cuerpo Legislativo. –