Flavia Costa es Dra. en Ciencias Sociales por la Universidad de Buenos Aires, investigadoradel Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). También esprofesora asociada del Seminario de Informática y Sociedad (UBA). Es autora denumerosas publicaciones sobre arte, tecnología y sociedad, así como sobre las derivascontemporáneas de la bio-tecno-política. Su último libro se titula Tecnoceno. Algoritmos,biohackers y nuevas formas de vida (Taurus, 2021). En 2023 dirigió la investigación“Desafíos e impactos de la inteligencia artificial” en la Universidad de Buenos Aires. EsteJueves 16 de mayo, de 10 a 13.00 horas (Chi), Flavia Costa impartirá una conferenciatitulada “IA: desafíos teóricos, políticos y epistemológicos para las ciencias sociales”. Laactividad se dará en el contexto del Doctorado en Comunicación de la Universidad de la Frontera y la Universidad Austral, en Biblioteca Central y vía plataforma digital.
Para Flavia Costa la Inteligencia Artificial (IA), no alude a una tecnología, sino que se tratade “metatecnologías”. No constituyen un dispositivo técnico, sino un “mundoambiente”que comprende tecnologías de alto riesgo y requieren de un tratamiento acorde en suciclo de vida; las IA generativas y en particular los LLM no son sólo Inteligencia Artificial,sino también “Sociedad Artificial”. Esto último, requiere un enfoque desde la éticaorganizacional de la IA y desde el “enfoque sistémico”. Actualmente las tecnologías delecosistema ya no son -necesariamente- instrumentos que podemos elegir y usar segúnnuestras necesidades, sino que se han vuelto indispensables en la vida cotidiana, o bien,para guiarnos en una ciudad, hasta iniciar un trámite de documentación obligatoria. Esto significa que, en relación con los usuarios, no es suficiente un enfoque que las abordedesde la “perspectiva de la instrumentalidad”, a saber, que se agote en la relaciónsistema-usuario individual.
En el marco de los “Desafíos e impactos de la inteligencia artificial” la autora se hapreguntado críticamente por qué los expertos que provienen de las ciencias informáticas ylas ingenierías suelen identificar en el campo de las ciencias sociales -esencialmente-mecanismos jurídicos. En suma, dado que en muchos casos las tecnologías de IA puedenser de alto riesgo, la aseguración (safety) debe ser preventiva; debe estar inscripta en elpropio sistema. En los sistemas sociotécnicos complejos, la evaluación de riesgos y elmonitoreo de seguridad es parte de todo el ciclo de vida del sistema. La seguridad de la IAes un campo emergente en el que hay poca casuística, será importante seguir de cerca elproceso que está llevando adelante el monitor de incidentes de IA que recientementepuso en marcha la OCDE. Si la IA puede ser de alto riesgo en áreas de experiencia críticaspara la población, la perspectiva que necesitamos va más allá de las recomendacionesvoluntarias y códigos de buenas prácticas, apelando a un enfoque de la seguridadsistémica. Por fin, se requiere complementar la ética con un enfoque sistémico, quereponga, allí donde hay alto riesgo, las mediaciones que la aceleración se saltea, que establezca procedimientos de revisión transparentes, estructuras de rendición de cuentasvinculantes, documentación de modelos y conjuntos de datos y auditoría independiente.
Mauro Salazar J.
Link. : https://www.youtube.com/watch?v=bimDEItJfAg
Doctorado en ComunicaciónUniversidad de la Frontera.