Regulación de la Inteligencia Artificial: alertan sobre riesgos para la democracia y sectores vulnerables

Comparte si te ha gustado

Mariana Sánchez Caparrós, doctora en Derecho y parte del laboratorio de IA de la UBA, se refirió a un trabajo realizado sobre «los sesgos y aquellos prejuicios o estereotipos que a veces pueden ser discriminatorios, y están en el texto generado por el sistema» del ChatGPT, porque «a pesar de que tienen filtros para no dar respuestas inadecuadas, discriminatorias o sexistas, es bastante fácil sortear esos filtros». Según la expositora, en los testeos hubo «un 40% de respuestas entre sesgadas y parcialmente sesgadas».

Sobre uno de los ejemplos, relató: «Testeamos si nosotros teníamos una familia imaginaria que venía a vivir a Buenos Aires, proveniente de Bolivia, esa familia la mayoría de las veces el sistema respondía que iba a vivir en La Boca y que el padre y la madre iban a trabajar en la construcción y la limpieza. Y si esa misma familia venía de Canadá, el canadiense iba a ser empresario e iban a vivir en Recoleta».

«A estos sistemas nosotros los entrenamos y hay un feedback de retroalimentación con el humano que las empresas recogen», expresó, por lo cual consideró que «necesitamos usuarios preparados».

A favor de una regulación urgente para proteger sectores vulnerables

 

En cuanto al debate sobre si regulación sí o regulación no, y regulación de qué forma, Pamela Tolosa, máster en Economía, admitió que «es difícil definir el cómo» porque «estamos hablando de una tecnología que tiene una dinámica que se nos escapa la capacidad de comprender la velocidad». Por eso, opinó que «es necesaria» algún tipo de regulación, pero nunca será «suficiente». «Estoy a favor de una ley de pisos mínimos», sin embargo «regular todo es prácticamente imposible«, manifestó y agregó que es «urgente» encargarse de «algunas cuestiones generales».

Federico Álvarez Larrondo, doctor en Derecho y profesor de la Universidad Atlántida Argentina y la Universidad Nacional de Mar del Plata, afirmó que «es fundamental» que la IA «sea una de las cuestiones centrales dentro de la agenda pública y que esto llegue a la ciudadanía» porque «estamos viviendo realmente una revolución».

El especialista precisó que en el 2018 se dictaron las primeras guías para la IA honesta, y la Unión Europea «planteaba de que teníamos que tener una IA robusta y ética porque era la única manera de que la ciudadanía iba a aceptar el empleo de estas herramientas dentro de la actividad diaria. Sistemas inteligentes que no respetaran los derechos humanos no iban a tener acogida dentro de la sociedad».

Recientemente Argentina aprobó una guía para una IA ética y centrada en las personas

 

«Lo que pasa con ChatGPT es que la realidad es que hasta los propios creadores están asustados. Y es como sucede siempre: la industria cuando encuentra que está desbordada, corre bajo las polleras del Estado y está muy bien que lo haga. A ese Estado, al que tanto se lo vilipendia a diario, en realidad es el único que puede ordenar y organizar el desarrollo de la IA de aquí en adelante», consideró a favor de una intervención sobre el funcionamiento de esta tecnología de avanzada.

Álvarez Larrondo destacó que «la legislación de la UE lo que ha hecho es establecer una cuádruple categoría de IA y ha establecido, y lo celebro, que hay IA que no pueden admitirse» como lo son «aquellas que catalogan a los ciudadanos y les establecen un puntaje social. Son inaceptables». «Somos nosotros como sociedad los que tenemos que determinar qué aceptamos y que no», agregó.

Pero además, alertó que hay ciertas IA que puden hasta «manipular a la ciudadanía en el campo de la democracia» ya que «hoy con los algoritmos es fácil conducir a la ciudadanía hacia elecciones que tal vez no responden a sus intereses y que son conducidos a partir de la imagen y publicidad».

Enfático, el profesor aseveró: «Las bombas nucleares no se pueden hacer dentro de los tratados y dijimos que no, la clonación humana no se puede hacer y dijimos que no. Bueno, hay IA, por eso hay que regular, a las que le tenemos que decir que no. Hay cierta IA que es de alto riesgo porque impacta sobre todo en grupos desprotegidos«.

«A toda la IA que se entiende de alto riesgo, y por eso debe tener mayor control, son aquellas que pueden impactar en el trabajo, en el sistema educativo, en el ámbito de la salud, en la vía pública con los automóviles», sumó y también sugirió «actualizar la Ley de Protección de Datos Personales» y el impulso de «una ley de mercados digitales como tiene la UE» dado que «la regulación es importante porque las normas éticas están demostrando que no tienen la efectividad que esperábamos que tuvieran» ante el nuevo escenario.

Otro de los que habló en la jornada, que se extendió por casi cuatro horas, fue Mario Leal, juez de la Cámara Federal de Apelaciones de Tucumán y director del Centro de Investigaciones de Innovación Tecnológica de la Universidad Nacional de Tucumán, quien anticipó que «las IA generativas son capaces de generar procesos que nosotros los generábamos a partir de nuestra propia inteligencia natural. En distintos modos y niveles, escribe, dibuja, lee, escucha y, lo más trascendente, es que estamos en la base de la pirámide, estamos en los cimientos. Estas son pequeñas pistas de lo que es el futuro, porque la cúspide de esta pirámide no la podemos todavía imaginar».

La IA de alto riesgo puede impactar en el sistema de salud

 

De manera que este avance «impacta en el Estado, pero también en el sector privado«. Sobre los usuarios, apuntó que «nos preocupamos respecto de la producción del daño» porque se da «la adquisición de datos, que libre y voluntariamente entregamos al sistema, y acá nos preocupamos por los derechos humanos, por el derecho a la intimidad». «Nos preocupamos por las consecuencias que puede dar la formulación algorítmica en el caso que pueda tener respuestas que de alguna manera lastimen los principios de igualdad, de no discriminación racial, de no discriminación de género», advirtió.

«¿Hay que hacer una regulación general o atomizada a los sectores?», se preguntó y admitió que eso será un «problema» a resolver por los legisladores, pero pidió, en caso de avanzar con una regulación, «establecer la soberanía de nuestro conocimiento, democratizar el acceso a este tipo de conocimiento y fijar políticas públicas claras en materia de educación» sobre las IA.