El estado nacional publico mediante una disposición un manual de recomendaciones para el uso de Inteligencia Artificial

Las recomendaciones para el uso de Inteligencia Artificial de herramientas que buscan proteger los derechos fundamentales, prevenir o disminuir los riesgos, promover la innovación y promover el diseño centrado en las personas. fueron publicada el 1 de junio 2023 mediante la disposición 2/2023 de Jefatura de Gabinete de Ministros. En las recomendaciones no aparece ningún topico que alerte sobre el uso de la IA en desmedro del trabajo humano.

Política 31/07/2023 MásDeAgencia MásDeAgencia
ia-empleo-industria-jpg-1200×800-
Foto Press

Inteligencia artificial
Las soluciones tecnológicas basadas en Inteligencia artificial permiten mayores niveles de automatización. En el plano productivo, la Inteligencia artificial tiene gran capacidad de promover la innovación, agregar valor, aumentar la productividad del trabajo, generar nuevos bienes y servicios y potenciar las exportaciones.

En el ámbito público, la Inteligencia artificial da soluciones que permiten hacer más eficiente la gestión del Estado y mejorar el diseño y la implementación de las políticas y la prestación de servicios esenciales en salud, educación, seguridad, transporte, cuidado del medio ambiente, etc.

Los gobiernos también pueden usar la Inteligencia artificial para mejorar la comunicación y el compromiso con los ciudadanos.
El Estado tiene un rol fundamental para promover la investigación y el desarrollo de soluciones de Inteligencia artificial que atiendan las necesidades reales de las personas y para garantizar que la Inteligencia artificial sea transparente, equitativa y responsable.

El Estado debe establecer reglas claras para garantizar que las ventajas de cualquier desarrollo tecnológico puedan ser aprovechadas por todos los sectores de la sociedad; para promover la responsabilidad en la recolección y uso de los datos personales, evitar la discriminación algorítmica y gestionar los riesgos del uso de la Inteligencia artificial para prevenir perjuicios.

Objetivo
Las Recomendaciones para el uso de Inteligencia Artificial busca reunir y dar herramientas para las personas que realizan proyectos de innovación pública mediante la tecnología, en especial las personas que importen el uso de inteligencia artificial.
Se recomienda tener un enfoque multidisciplinar, entendiendo de forma integral las consecuencias del uso, adopción, desarrollo e innovación pública mediante la inteligencia artificial.

El manual de Recomendaciones para el uso de Inteligencia Artificial da herramientas teóricas y prácticas a las personas que integran el sector público, ya sea liderando proyectos de innovación, desarrollando tecnologías, adoptando tecnologías desarrolladas por otros equipos técnicos o proveedores o formulando las especificaciones técnicas para esas adquisiciones.

Aspectos éticos en la Inteligencia artificial
El desarrollo y la implementación de Inteligencia artificial debe realizarse siguiendo principios éticos para proteger los derechos fundamentales, respetar valores democráticos, prevenir o disminuir los riesgos, promover la innovación y promover el diseño centrado en las personas.

En el momento de partida del proyecto de inteligencia artificial los actores que participen deben considerar ciertos principios éticos.
En especial se debe respetar la Recomendación sobre la Ética de la Inteligencia Artificial de la Organización de Naciones Unidas (ONU). Algunos de sus principios son:

Proporcionalidad e inocuidad. En caso de que pueda producirse cualquier daño para los seres humanos, debe garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.
Seguridad y protección. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deben ser evitados y deben tenerse en cuenta, prevenirse y eliminarse durante el ciclo de vida de los sistemas de Inteligencia artificial para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas.
Equidad y no discriminación. Los actores de la Inteligencia artificial deben promover la diversidad y la inclusión, garantizar la justicia social, proteger la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. Los actores de la IA deberían hacer todo lo razonablemente posible por reducir al mínimo y evitar reforzar o perpetuar aplicaciones y resultados discriminatorios o sesgados a lo largo del ciclo de vida de los sistemas de IA, a fin de garantizar la equidad de dichos sistemas.
Supervisión y decisión humanas. La decisión de ceder el control a los sistemas de inteligencia artificial en contextos limitados sigue siendo de los seres humanos, porque un sistema de Inteligencia artificial no puede reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas.
Transparencia y explicabilidad. La transparencia y la explicabilidad de los sistemas de Inteligencia artificial son condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. Las personas deben tener la oportunidad de pedir explicaciones e información al responsable de la Inteligencia artificial o a las instituciones del sector público correspondientes.
Sensibilización y educación. La sensibilización y la comprensión del público sobre las tecnologías de Inteligencia artificial y el valor de los datos deben promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética del uso de la Inteligencia artificial. También debe realizarse la alfabetización mediática e informacional y la capacitación dirigida conjuntamente por los gobiernos, las organizaciones intergubernamentales, la sociedad civil, las universidades, los medios de comunicación, los dirigentes comunitarios y el sector privado, para garantizar una participación pública efectiva.
Antes de pensar en el diseño, desarrollo, implementación o en el uso de la inteligencia artificial, se necesita formar un equipo humano diverso y multidisciplinario. La diversidad de conocimientos y de perspectivas en los equipos humanos es fundamental para resolver los desafíos éticos, comprender las implicaciones sociales, priorizar soluciones centradas en el usuario, evitar sesgos y discriminación, y fomentar la innovación.

Durante cada etapa del ciclo de vida de la Inteligencia artificial se debe asegurar que las personas que integren el equipo diverso y multidisciplinario a cargo del diseño, que es la primera actividad del ciclo de vida, conozcan y comprendan los aspectos éticos básicos involucrados.
La trazabilidad es la mejor herramienta para auditar el modelo y garantizar el cumplimiento de los principios éticos. Se necesita identificar y comprender el registro de acciones, decisiones o cualquier otro evento que afecte a los sistemas involucrados del proyecto de Inteligencia artificial.

Durante el tiempo que los servicios que se prestan mediante tecnologías de inteligencia artificial sigan vigentes se deben hacer las tareas de operación y mantenimiento.
Cuando existan daños las personas responsables de los sistemas de inteligencia artificial deben actuar de manera inmediata y personalmente para comprender el alcance del perjuicio y tomar, por los medios posibles, las acciones necesarias para reparar o revertir el perjuicio causado.

En forma previa se deben definir los procedimientos formales e institucionalizados para realizar la reparación de los daños.
Se deben registrar las acciones de responsabilidad y rendición de cuentas, y serán definidas como casos testigos para ser estudiados y discutidos formando parte de las lecciones aprendidas, necesarias para el aprendizaje organizacional y la mejora continua de procesos.

Para los casos dónde existan servicios brindados a través de tecnologías de inteligencia artificial se debe establecer una vía humana (con atención presencial) para atender a las personas que por su perfil o su situación no tengan acceso a los dispositivos y servicios tecnológicos básicos universales necesarios para ser usuarios de los servicios de inteligencia artificial, o prefieran la atención de una persona humana.

 
Destino de uso de la Inteligencia artificial
La inteligencia artificial tiene una gran variedad en sus destinos de uso, y cada destino de uso tiene diferentes niveles de riesgos, varios niveles de tratamiento de riesgo y de control humano.

Una persona humana, con intención, discernimiento y libertad de acción le ordena a la tecnología realizar distintas acciones, por ello deben existir instrumentos de control que identifiquen la responsabilidad y rendición de cuentas cuando las intenciones de las personas humanas no respeten el bien común y los derechos humanos.

Texto completo de la norma