En kioscos: Abril 2024
Suscripción Comprar
es | fr | en | +
Accéder au menu

No a la perversa inteligencia artificial. Por Carlos López Dawson

LA HOJA DE PAPEL

La comunicación puede tener distintas formas, entre los humanos se aprecia la palabra, el gesto, el silbido, la transmisión mental, la escritura y la transmisión de mensajes vía electrónica o computacional. Cuando una comunidad desea mantener su privacidad o su secreto entonces utiliza palabras en clave palabras secretas o complejas solo comprensibles para los pertenecientes al grupo. Este tipo de palabra pueden ser usadas como claves para pasar o ingresar a un sitio.

Cuando se habla de armas se asocia con instrumentos fabricados para ello, cuchillos, armas de fuego, explosivos, etc. Sin embargo, cualquier cosa puede ser transformada en un arma. Por ejemplo, una hoja de papel puede cortarle el cuello a un ser humano o asfixiarlo, entonces será el arma letal. Del mismo modo los programas computacionales creados para ayudar a los usuarios pueden servir para otros fines, como inducir un comportamiento no reflexivo. Este punto está en el debate sobre Inteligencia artificial (IA).

La discusión que se limita a cuestionar el sesgo algorítmico de la AI oculta cómo esta pasa a ser un arma de destrucción cultural, social y política, con lo que contribuye a la violencia estructural existente producto de un sistema socio económico depredador y deshumanizado. Humanizar IA es imposible, pero si es posible primero educar a toda la población sobre lo que significa la AI, en seguida, hacerle respetar la transparencia, luego, colocarle límites legales y sanciones penales a su mal uso. En ese punto es esencial un Estado democrático.

MÁS INTELIGENCIA

La política nacional sobre la materia se fundamenta en cuatro principios transversales:

IA con centro en el bienestar de las personas, respeto a los derechos humanos y la seguridad; IA para el desarrollo sostenible; IA inclusiva; e IA globalizada. (https://www.minciencia.gob.cl/noticias/chile-presenta-la-primera-politica-nacional-de-inteligencia-artificial/). También es estructurada en tres ejes: el primer eje, Factores Habilitantes, se refiere a los elementos estructurales que posibilitan la existencia y el despliegue de la IA, como lo son el desarrollo de talentos, infraestructura tecnológica, y datos; el segundo eje, Desarrollo y Adopción, comprende el espacio donde se crea y despliega la IA, es decir, quienes generan, proveen y demandan sus diferentes aplicaciones y técnicas, que incluyen a la Academia, el Estado, el sector productivo y la sociedad civil; y el último eje, Ética, Aspectos Normativos, e Impactos Socioeconómicos aborda las nuevas discusiones que han surgido a propósito de la interacción humano-máquina y el sistema socio-técnico que configura. El ciber acoso, por su parte también está sujeto a una regulación, aun cuando es todavía insuficiente. ( https://www.gob.cl/saludablemente/violenciadigital/denuncia/ )

Los usuarios también pueden hacer uso de acciones judiciales establecidas en la ley 19.628 relativo al resguardo a la vida privada en dos elementos fundamentales – los derechos de los titulares de datos, derecho de autoría, y lo que en doctrina se conoce como Habeas Data que trata lograr el respeto de los derechos de los titulares de datos, e impedir que estos derechos no se vean transgredidos por actos u omisiones de terceros. La Ley 19.628 que regula el tratamiento de datos de carácter personal, (3) sea este automatizado o no, y se realice por particulares o por órganos del Estado, (4) establece para los titulares de datos, o sea, para las personas naturales a las que se refieren éstos, una serie de derechos que tienen como fin último dar protección al bien jurídica intimidad y, más específicamente, a la autodeterminación informativa o libertad informática.

Actualmente, la protección a la confidencialidad de los datos es indudablemente un tema de relevancia no solo en el ámbito nacional, gracias no solo a la creciente difusión de éstos a través del innegable proceso de globales, tomando como ejemplo el Internet, sino también a la necesidad de colaboración entre organismos tanto públicos como empresas, nacionales y extranjeros, quienes demandan información a la hora de tomar decisiones. Basándonos en tal contexto, es necesario no restringir el acceso a los datos por el temor de que la protección a la confidencialidad de la información no pueda ser garantizada a quienes la otorgan.

La protección de datos personales se encuentra reconocida en los sistemas legislativos modernos mediante el derecho a la intimidad o bien de manera autónoma. Con el surgimiento de la informática, aparece una nueva relación entre datos y personas, la cual requiere ser protegida más allá de las normas referentes a este derecho, siendo prioritario el reconocimiento de una garantía constitucional explícita de resguardo a los datos personales.

Un aspecto clave es la confianza en las fuentes de información, siendo de esta forma la protección de datos una herramienta que nos da parámetros de calidad de la misma información, basada en la garantía de derechos. Por lo tanto, una legislación fortalecida, es la clave para quienes deben tomar decisiones, basados en datos que generan la información. (ver en CIPER: https://www.ciperchile.cl/2019/12/28/inteligencia-artificial-o-estupidez-natural-breve-introduccion-a-big-data/ » 28.12.2019 Por Claudio Gutiérrez). EL USO DELICTUAL DE LA IA.

Es ampliamente conocido el caso de Cambridge Analitic, que fue una compañía privada británica que combinaba datos del sistema de internet y el análisis de datos con la comunicación estratégica para el det4erminasdos procesos, en específico, el proceso electoral. Se hizo famoso cuando fuera denunciado en la prensa de la época en 2018 por estar involucrado en el denominado «escándalo Facebook-Cambridge Analytica», relacionado con la campaña presidencial de Donald Trump. También se denunció que la empresa había trabajado con el PRO y Mauricio Macri en 2015, luego de revelar que SCL Group, nombre legal de Cambridge Analytica, elaboró una campaña anti-kirchnerista en mayo de 2015, cuando Mauricio Macri y Daniel Scioli se disputaban la presidencia de Argentina. Además, influyó en la campaña para la retirada del Reino Unido de la Unión Europea.

¿Ahora bien, porque se consideró ilegal el trabajo de esta empresa? Porque recopiló datos de millones de usuarios de Facebook sin su consentimiento, principalmente para utilizarlos con un fin de propaganda política y lo hizo con el consentimiento de esta última empresa, la que fue sancionada administrativa y penalmente debiendo pagar millones de dólares en multas .Además,, su propósito era inducir a los electores y/o consumidores a elegir sin que se percataran que lo hacían inducidos. Desde una perspectiva jurídica se discute si es el mejor camino mezclar lo administrativo con la sanción penal (Letelier Wartenberg, Raúl. (2017). Garantías penales y sanciones administrativas. Política criminal, 12(24), 622-689. https://dx.doi.org/10.4067/S0718-33992017000200622). No obstante, la aclaración de la forma de actuar de Cambridge Analitica concienciaron a la opinión pública de los problemas que plantea el seguimiento psicológico, y provocó un creciente interés público en la privacidad y en la influencia de los medios sociales en la política. En Twitter se hizo tendencia el movimiento ‘’#DeleteFacebook’’ (“Borra Facebook”). La empresa Cambridge se declaró en quiebra, pero sus métodos son usados por muchas empresas en el mundo, incluido Chile donde la ley no es clara para sancionar tales conductas.

MANIFESTACION DE DESIGUALDAD

El uso de tecnologías sofisticadas demanda recursos monetarios importantes los que están fuera del alcance de un particular y menos de un trabajador, de manera que solo grandes grupos económicos y el Estado tendrían la posibilidad de emprender en IA.

Nuestro país no escapa del mal. De hecho según informe periodístico de CIPER, Instagis, empresa contratada para optimizar las campañas de Chile Vamos, usa bases de datos y redes sociales para perfilar ciudadanos, de manera similar a como lo hacía Cambridge Analitica.. Además, Sosafe, la aplicación de seguridad que usan vecinos de al menos 27 municipios, recopila información de sus usuarios, entre ellos sus temores. Los dueños de Instagis controlan el 60% de Sosafe. En conjunto, Instagis y Sosafe acumulaban US$2,8 millones en ingresos provenientes de organismos públicos el año 2019. (CIPER, entre otros ver : https://www.ciperchile.cl/2019/12/28/inteligencia-artificial-o-estupidez-natural-breve-introduccion-a-big-data/).

El problema de estos programas cibernéticos es la recopilación de datos de los usuarios sin autorización y su uso para fines diversos, entre otros, electorales, sin que los usuario y/o consumidores se percaten. Se trata de inducir conductas sin explicitar que ese es el propósito, y con ello logra que los usuarios actúen irreflexivamente de acuerdo con el propósito que busca quien creó el programa.

ÉTICA CIBERNÉTICA

Ahora bien, ¿qué tiene que ver la ética con la cibernética? Sabemos que la ética es una disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano, y que también es un conjunto de costumbres y normas que dirigen o valoran el comportamiento humano en una comunidad. En definitiva, es un comportamiento en el que la persona se respeta asimismo y a los demás por igual. De manera que cualquier conducta humana puede ser medida según la ética del actor. La cibernética en tanto obrar humano entonces también puede ser observada desde una mirada ética.

Etimológicamente la palabra cibernética proviene de la voz griega kibernetes, piloto, y kibernes, que aluden al acto de gobernar; y relaciona la función cerebral con respecto a las máquinas. El término cibernética viene del griego Κυβερνήτης (kybernḗtēs, que se refiere al “timonel”, el cual “gobierna” la embarcación, es el “arte de gobernar una embarcación”); una embarcación como sistema (conjunto de elementos interrelacionados para lograr un objetivo) con base a su objetivo y su trayectoria actual (retroalimentación) aplica el control mediante el timón para lograr el resultado deseado. Por analogía, entonces se aplica la informática.(( https://ingenieria.lasalle.mx/el-concepto-de-cibernetica-en-el-mundo-actual/#:~:text=Con%20relaci%C3%B3n%20al%20origen%20etimol%C3%B3gico,objetivo)%20con%20base%20a%20su )

Un comportamiento ético podemos entenderlo como uno correcto, que no afectará a otros. Y es justamente la falta de ética en la aplicación de la tecnología que pudo conducir a la creación de instrumentos como los softwares Cambridge Analitic y similares.

SANCIONAR LA RUPTURA DE LA ETICA

La ley 19223 que sancionaba algunas conductas por el mal uso de la cibernética no alcanzaba para sancionar todas las conductas conocidas como las señaladas aquí, por lo que se aprobó la LEY 21.459 que establece normas sobre delitos informáticos, deroga la citada ley n° 19.223 y modifica otros cuerpos legales con el objeto de adecuarlos al convenio de Budapest, que busca homogeneizar la forma en que los países enfrentan hechos ilícitos en ambientes digitales. Entre estos delitos se cuentan el fraude, la interceptación ilícita y el acceso ilícito a sistemas informáticos.

Esta ley no se refiere explícitamente a casos como los que se origina con Cambridge Analitic, aun que podría interpretarse por extensión de acuerdo con su Artículo 10.- Circunstancias agravantes. Constituyen circunstancias agravantes de los delitos de que trata esta ley:

1) Cometer el delito abusando de una posición de confianza en la administración del sistema informático o custodio de los datos informáticos contenidos en él, en razón del ejercicio de un cargo o función.

2) Cometer el delito abusando de la vulnerabilidad, confianza o desconocimiento de niños, niñas, adolescentes o adultos mayores.

El uso malicioso con fines electorales encubiertos, como los programas tipo Cambridge Analitica, carecen en Chile de una definición del tipo penal y de una sanción clara, penal y administrativa, que inhiba a su mal uso, como ya se puede apreciar en la publicidad, indeseada para muchos, sobre candidatos para el Consejo constitucional. Habrá que copiar con más finura la legislación comparada, por ejemplo, las sanciones administrativas aplicadas por facilitar datos personales de decenas de millones de usuarios sin consultárseles, los que fueran utilizados por la consultora política Cambridge Analytica en varios países.

Se requiere que las acciones por tales abusos de confianza y a la espalda de los usuarios sean de acción pública, los tipos estén claramente definidos y sancionados. Entonces, si a la IA que no abusa. Nunca es tarde para corregir lo incorrecto.

Compartir este artículo