4 debates y 25 recursos del curso “Sociología digital”

Por: Karen De la Hoz Rodríguez – @kpdelahoz

Durante el primer semestre de 2021 me embarqué en la aventura de explorar los debates alrededor del impacto de las infraestructuras digitales en la vida social. Lo hice a través del curso ‘Sociología Digital’, una asignatura ofrecida en el pregrado de Sociología de la Universidad del Rosario, y abierta como curso libre a profesionales de diferentes disciplinas interesados en el tema. 

De la mano de Oscar Maldonado, PhD en Sociología por la Universidad de Lancaster, profesor principal del Programa de Sociología de la Universidad del Rosario y director de DiSoR-LAB, los asistentes a la clase exploramos conceptos como sociomaterialidad, digitalidad y digitalización, gig economy y economía digital, inequidad algorítmica, predicción y regímenes de anticipación. 

A continuación, comparto 4 debates y 25 recursos que resumen parte de los contenidos vistos:

Materialidad de lo digital: la clase fue una invitación a pensar en las infraestructuras físicas que hacen posible nuestra vida digital, en los trabajos que se requieren para mantener esas infraestructuras, en los trabajadores que los desempeñan, en las relaciones laborales que se generan y en las implicaciones para el medio ambiente. 

El trabajo de Kate Crawford, autora de ‘Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, resulta muy útil para reflexionar sobre este tema. En su libro, Crawford “revela cómo las redes globales que sustentan la tecnología de inteligencia artificial están dañando el medio ambiente, afianzando la desigualdad y alimentando un cambio hacia una gobernanza antidemocrática”.

Crawford analiza el caso de Amazon Echo. Su estudio incluye desde los minerales que se requieren para producir el altavoz inteligente hasta el salario promedio mensual en dólares de todas las personas que intervienen en la cadena de producción. La escala va de 0 dólares para trabajadores de residuos electrónicos en India hasta 16 200 dólares para Jeff Bezos.

Recursos adicionales: 


Algoritmos y justicia social: a partir del texto “Algorithmic Justice in Child Protection: Statistical Fairness, Social Justice and the Implications for Practice” exploramos algunos sistemas que usan machine learning, un subdominio de la inteligencia artificial, para tomar decisiones relacionadas con la protección de niños y adolescentes. El riesgo de este tipo de sistemas es que pueden inducir a sesgos hacia grupos poblacionales específicos por múltiples factores que pasan por la representación de las muestras e incluyen las fuentes de datos utilizadas para entrenar los algoritmos.   

América Latina ya utiliza estas tecnologías. Alerta Niñez es un modelo predictivo de riesgo creado entre 2018 y 2019 que está operando en forma de piloto en Chile. según explica el investigador Matías Valderrama, el modelo usa 280 variables para “intentar predecir factores de riesgo que deben ser mitigados para evitar vulneraciones futuras como embarazo adolescente, consumo problemático de alcohol y drogas, delincuencia, enfermedades psiquiátricas crónicas, trabajo infantil, explotación sexual, entre otros”.

El riesgo de discriminación algorítmica, de acuerdo con diferentes casos analizados, afecta en particular a grupos poblacionales en estratos socioeconómicos bajos. A través de la investigación “Experimentando con la pobreza: El Sisbén y los proyectos de analítica de datos en Colombia”, Fundación Karisma analiza cómo se vienen incorporando las tecnologías digitales en el sistema de asistencia social en Colombia. El documental Coded Bias, que sigue el trabajo de la investigadora Joy Buolamwini, también aborda la discriminación algorítmica hacia los más pobres, lo hace desde el análisis de sistemas de reconocimiento fácil.  

Recursos adicionales

[Video] The Coded Gaze with Joy Buolamwini, keynote de Buolamwini en Stanford HAI 2019 Fall Conference. 

[Video] Tic Tank: Uso estratégico de datos e inteligencia artificial en el sector público

[Sitio web] Tendencias regionales en la implementación de IA.  

[Presentación] PRiSMA, una herramienta para medir el perfil de Riesgo de Reincidencia para la Solicitud de Medidas de Aseguramiento que utiliza la Fiscalía General de la Nación en Colombia. 

[Artículo] PretorIA, una tecnología que incorpora Inteligencia Artificial y que podría ser implementada por la Corte Constitucional en Colombia. 

[Guía] AI: Una introducción visual al machine learning.

[Novela gráfica] Espejito, espejito


Algoritmos, autodeterminación y libre albedrío: En Los cerebros ‘hackeados’ votan, un análisis publicado por el historiador Yuval Noah Harari en el diario El País de España, el autor plantea que “para piratear a los seres humanos, hacen falta tres cosas: sólidos conocimientos de biología, muchos datos y una gran capacidad informática”.

Las grandes cantidades de datos de las que habla Harari, fueron un tema recurrente en nuestro curso. Abordamos los datos a través de la perspectiva de Shoshana Zuboff en el libro ‘La era del capitalismo de la vigilancia’. Para la autora el ecosistema artificial en el que viaja la información está diseñado para darnos más del contenido que refuerza nuestros gustos y creencias, lo que asegura tiempo de permanencia y recurrencia, que a su vez garantiza excedentes conductuales que las plataformas, que dominan esos ecosistemas, puedan transformar en predicciones. 

Para dar una dimensión a las cantidades de datos de las que hablamos cito un párrafo del capítulo ‘La vida en la colmena’:

“La función ‘Noticias’ pasó a depender en 2016 de uno de los algoritmos predictivos más secretos del mundo, derivados de una vista a ojo de Dios de más de cien mil elementos de excedente conductual que son objeto de computación continua para calcular la puntuación de ‘relevancia personal’ de millares de posibles publicaciones a partir del ‘escaneo y compilación de todo lo publicado en la semana anterior por cada uno de tus amigos, todos aquellos a quienes sigues, cada grupo al que perteneces, y todas las páginas de Facebook en las que alguna vez hayas dado Me gusta – según escribió Will Oremus en Slate-. La publicación que ves encabezando la lista de ‘Noticias’ ha sido elegida, pues, sobre miles de otras como aquella que más probabilidades tiene de hacerte reír, llorar, sonreír, clicar, valorar con un ‘me gusta’ compartir o comentar”.

¿Qué implicaciones tiene esto? Perdemos de vista que no elegimos tan libremente cómo creemos, vemos contenidos que son similares entre sí y lo opuesto prácticamente desaparece de nuestras cuentas, reproducimos lo que creemos que otros quieren ver… nos arriesgamos menos. De acuerdo con Zuboff: nos miramos desde afuera, nos comparamos con lo que vemos de los otros y lo que vemos no es más que una versión optimizada.  

Recursos adicionales

[Libro] Self-Tracking. https://mitpress.mit.edu/books/self-tracking 

[Documental] Nada es privado (2019) https://www.netflix.com/co/title/80117542 

[Documental] El dilema social (2020) https://www.netflix.com/co/title/81254224 

[Libro] Armas de destrucción matemática, de Cathy O’Neil. https://www.amazon.com/-/es/Cathy-ONeil/dp/8494740849

[Pódcast] Your Undivided Attention. Episodio 28: Two Million Years in Two Hours: A Conversation with Yuval Noah Harari. https://www.humanetech.com/podcast/28-two-million-years-in-two-hours-a-conversation-with-yuval-noah-harari 


Comprensión de las fake news: uno de los recursos más relevantes para mi trabajo diario en la Fundación Gabo fue A Field Guide to “Fake News” and Other Information Disorders’, una guía que explora “el uso de métodos digitales para estudiar, mapear e investigar empíricamente las noticias virales falsas, los memes políticos y las prácticas de trolling”.

Para los autores del texto, entender las noticias falsas pasa, entre muchos otros factores, por revisar el término elegido para designar el fenómeno, pues la expresión noticias falsas pone el énfasis en una de las característica del problema, el ‘engaño’, y omite otra, ‘la capacidad de propagación’. 

De acuerdo con la guía, no existe una forma sencilla de distinguir lo ‘falso’ y lo ‘no falso’ y esto es visto como una oportunidad para “estudiar no solo las estrategias y formatos de la falsedad, sino también la política y la composición de los medios y entornos de información de la era digital”. Esto es posible ya que las noticias falsas comparten formas, contenidos y canales de circulación con la información que se encuentra en los principales medios de comunicación. 

Lo descrito anteriormente supone un punto de inflexión para la comprensión del fenómeno de las noticias falsas, pues al quitar el foco del problema en la falta de información fáctica, también permite vislumbrar soluciones que van más allá de las iniciativas para identificar y verificar contenido engañoso.

Recursos adicionales: 

[Artículo] ‘No funeral bells: Public reason in a ‘post-truth’ age’’, un artículo que explora la desinformación y la noción de verdad. 

[Artículo] WhatsApp and political instability in Brazil: targeted messages and political radicalisation. https://policyreview.info/articles/analysis/whatsapp-and-political-instability-brazil-targeted-messages-and-political 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s