6/11/2023 - tecnologia-e-innovacion

IA y nuevos paradigmas en la atribución de responsabilidad

Por nicolas cuello

Imagen de portada
Imagen de portada

SI NO LO REGULAMOS ¿QUÉ VAMOS A HACER?

Articulo escrito por Pedro Leon Cornet (Abogado U.N.T – Maestrando Derecho y Economía UTDT – Head Legal LUCODS)

La Real Academia Española define a la IA (Inteligencia Artificial) como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o razonamiento lógico. A pesar de no haber un consenso claro respecto a los conceptos de IA (Inteligencia Artificial) e IoT (Internet of Things o Internet de las Cosas) ni de su alcance.

El avance y la innovación siempre han generado cortocircuito en los marcos regulatorios preestablecidos. Desde este punto creemos que existe una forma de encarar esta problemática e implica concebir al derecho para la innovación, con el propósito de establecer soluciones legales para las interrupciones tangibles causadas por el avance de las nuevas tecnologías. De este modo entendemos a las herramientas legales como instrumentos al servicio de los cambios surgentes.

Esto conlleva la necesidad de crear un marco jurídico que se adapte a la nueva realidad generada por el surgimiento de nuevas tecnologías y las complejidades que su implementación conlleva.

Viajemos en el tiempo, al momento en que se creó la bombilla eléctrica, pensemos en la cantidad de negocios de ventas de velas que quebraron, los accidentes que se generaron por la manipulación de electricidad, las nuevas regulaciones con respecto al suministro de energía, sumado a la cantidad de gente que se habrá opuesto a semejante cambio. ¿Es esto, motivo suficiente para la prohibición de la bombilla eléctrica? No. ¿Es necesario un marco regulatorio para electricidad? Sin dudas.

Paralelamente al desarrollo de la tecnología, el marco regulatorio del derecho de daños fue evolucionando en el sentido de lo que el progreso demandaba. El escenario evolutivo del derecho de daños pasó de una construcción decimonónica cimentado en una fuerte noción de culpabilidad, para luego, en sintonía con la revolución industrial correrse hacia una óptica pregonada por los factores de corte objetivo. Esta evolución no fue caprichosa, sino que vino a otorgar cierta seguridad jurídica para permitir el marcar una fuerte distinción entre las consecuencias provocadas por la propia culpabilidad del hombre en un plano subjetivo a la responsabilidad por las cosas

dañosas o riesgosas producto de su invención.

En este sentido, siguiendo al ensayo recientemente publicado “Comparative law study on civil liability for artificial inteligence”, los sistemas jurídicos europeos han tenido variaciones y conformaron ópticas distintas en el abordaje de la responsabilidad civil, lo cual los ha llevado a tener pequeñas diferencias en cuanto a la regulación de estas tecnologías. Pareciera que los sistemas escandinavos y romanos se inclinan a un corte más objetivista al tratar el tema. Sin embargo, la tradición germánica ha englobado parámetros mucho más subjetivos centrado en la conducta, lo cual permite ampliar el marco de atribución de responsabilidad a nuevos objetos

capaces de desplegar acciones.

Europa se acerca a la unanimidad en cuanto a la atribución de responsabilidad objetiva, pero dentro de los matices jurisdiccionales, es relevante ver las disidencias y diferencias, especialmente en países como Alemania, Republica de Checa, Croacia, Dinamarca y Polonia, donde los principales factores de atribución de la responsabilidad giran en torno al factor subjetivo nacido de la culpa.

El derecho argentino y la doctrina es conteste respecto del tipo de atribución de responsabilidad provocadas por estas tecnologías, una responsabilidad, sin dudas, de tipo objetiva.

En cuanto a la regulación y ubicación en el marco regulatorio el derecho argentino ha subsumido a la responsabilidad surgida de la aplicación de IA e IoT bajo lo previsto en el articulado que va del 1756 a 1759 CCyC y el 1769 del CCyC. Articulado que se desglosa en dos tipos de responsabilidad, por un lado, la responsabilidad por el hecho ajeno -responsabilidad por los hijos- y por el otro la responsabilidad por el daño causado por animales.

En cuanto a la autonomía de una máquina es difícil medir cual es la percepción del entorno y del riesgo que posee.

¿Es acaso una máquina igual que un hijo o un animal?

De manera reciente, en Informe de Naciones Unidas (“Letter dated 8 March 2021 from the Panel of Experts on Libya Established pursuant to Resolution 1973 (2011) addressed to the President of the Security Council”) Se advirtió sobre el primer ataque de drones autónomos diseñados para operar y custodiar territorios a partir de intervenciones realizadas por Turquía en Libia, Siria y el Cáucaso.

El arma usada el STM Kargu 2, es un dron capaz de llevar operativos tipo enjambre y según explica la compañía “puede utilizarse eficazmente contra objetivos estáticos o en movimiento gracias a sus capacidades de procesamiento de imágenes en tiempo real y a los algoritmos de aprendizaje automático integrados en la plataforma”. Provistos de cámaras de video electroópticas e infrarrojas y un sistema de imágenes láser (LIDAR) que les permiten operar de forma totalmente autónoma.

Gracias al aprendizaje automático se puede enseñar a los aparatos a detectar e interpretar movimientos de tropas o unidades militares como tanques.

Estos sistemas autónomos fueron diseñados para atacar objetivos sin requerir autorización entre un operador y munición, su forma de operar completamente autónoma genera que la misma despliegue un comportamiento en base a su propia percepción del entorno.

¿Y quién responde por estos ataques? La compañía sostiene que ella únicamente crea la tecnología que otro utiliza, transfiriendo la responsabilidad a quien puso en marcha el sistema ya creado.

Quien compró el objeto para utilizarlo arguye que esta inteligencia observa, analiza y actúa en base a sus propias consideraciones. Podríamos agregar un tercer responsable, quien configura a la máquina para dirigir esos ataques, pero lo cierto es que vimos que una vez superado el llamado ‘training set’ estas inteligencias escapan del control humano y comienzan a realizar valoraciones propias debido a su capacidad para generar juicios propios según su propia experiencia.

Me pregunto ¿Nos será suficiente resolver esta problemática con los enunciados del del 1756 a 1759 CCyC y el 1769 del CCyC? ¿Nos estamos quedando cortos con la atribución de responsabilidad? ¿Tendremos derecho para la innovación y crearemos institutos específicos?

¿Deseas validar esta nota?

Al Validar estás certificando que lo publicado es información correcta, ayudándonos a luchar contra la desinformación.

Validado por 0 usuarios
nicolas cuello

nicolas cuello

CEO & Fundador de LUCODS. Experto en nuevas tecnologías, con más de 10 años en el ecosistema innovador, consultor de empresas privadas, vinculador tecnológico, conferencista en eventos sobre tecnología como ser Virtuality, Smart Cities, Bafici, entre otros. Asesor del INTI en temas relacionados a Realidad Virtual, Realidad Aumentada. Miembro del METAVERSE STANDARD FORUM. Profesor en IMAGE CAMPUS del trayecto METAVERSO.

Linkedin

Vistas totales: 10

Comentarios