Click acá para ir directamente al contenido
  • Innovación
  • 27 de octubre 2020

Bárbara Poblete: Hay un monopolio mundial de la Inteligencia Artificial en Silicon Valley

La científica e investigadora hace un análisis de la efervescencia ocurrida en Twitter por el plebiscito, las noticias falsas, la sobrerrepresentación de algunas posiciones y la brecha de inteligencia artificial.

La científica e investigadora del DCC de la Universidad de Chile y del Instituto Milenio Fundamento de los Datos, Bárbara Poblete, analiza con método, rigor y afán todo lo que ocurre con los datos en las redes sociales. Aún así, los sentimientos la embargaron en el plebiscito.

"Me pareció súper emocionante, no esperaba un triunfo tan arrollador del Apruebo y me gusta porque da esperanza, porque cuando las personas salen a votar producen cambios", dice Poblete a Las3Claves.

Esta experta en redes sociales, datos, Inteligencia Artificial y computación plantea que "cuando se dan estos fenómenos, entre todos le damos sentido a las cosas o vamos descifrando todos juntos. Vamos poniendo nuestra parte de la información que tenemos y tratamos de armar un puzzle colectivo. Se habla bastante mal de las redes sociales porque han sido bien manipuladas con fines de propaganda, pero cuando uno deja de lado eso y ve la interacción que genera entre las personas son una cosa fantástica".

"Lo otro que me gusta es que es difícil manipular la información de fondo. Alguien apareció el domingo muy temprano con una estadística que decía que en Nueva Zelanda había ganado el Rechazo. Rápidamente, se derriba eso y empiezan los datos de verdad. Cuando nos interesa participar en este 'collective sensemaking', se vuelve muy interesante".

- ¿Hay un mapa mundi de las redes, más allá de los filtros en que cada uno se rodea de gente que piensa como uno (filtro burbuja)?
- Nosotros nos dedicamos a eso, hacer estas fotos de las redes sociales para poder sacar diagnósticos de lo que está pasando en el mundo. La línea de investigación que yo llevo está por tratar de entender fenómenos del mundo físico, real, a través de lo que pasa en redes. Uno no puede analizar todos los fenómenos a raíz de lo que pasa en redes sociales porque es una muestra chica, sesgada, pero hay ciertas cosas a las que sí tenemos un buen insight, introspectiva.

Por ejemplo, para manejo de desastres como cuando se produce un terremoto, la muestra de personas en redes sociales está suficientemente distribuida en hartas partes en Chile. La gente lo pone en Twitter y podemos estimar en Twicalli la escala Mercali, dar detección en tiempo real y son herramientas que sirven a las oficinas de emergencia, como el Shoa, la Onemi y el centro sismológico.

También hacemos análisis de medios noticiosos en Galean, hemos estudiado los titulares y la información, cómo la gente los comenta en redes sociales. Puedes ver cómo han impactado las noticias de los últimos cuatro años, en las redes, cuáles generan más conversación, más polémica. Tenemos estas herramientas que entregan más datos y te permiten ver la foto completa de la película.

Algoritmos y sobrerrepresentación

Desde hace unos años, las redes sociales han adquirido una dimensión enorme como arma propagandística. Todo gracias a las noticias falsas, manipulación y la inflación de la real importancia de algunas ideologías, gracias a los bots que burlan los algoritmos.

"Yo no espero que las redes sociales sean súper pluralistas, que yo me conecte y vea la opinión de todo el mundo. Veía un discurso del actor Sacha Baron Cohen (Borat), que decía que hay que darle la representatividad correcta a cada grupo. Cuando uno ve estas polarizaciones extremas, no necesariamente reflejan a la humanidad, sino a ciertos grupos que tienen amplificación artificial en las redes. Por lo que he leído, tienen que ver con la extrema derecha, que tienen muchas cuentas automatizadas", aclara la doctora Poblete.

"He visto harta actividad de bots amplificando hashtags en Twitter que tienen relación con la extrema derecha, algo que no he visto tanto en la extrema izquierda. Los trending topic son indicadores manipulables y a eso se juega con las cuentas automatizadas o pagadas", agrega.

- ¿Cómo se puede regular esta desinformación en redes, sobre todo con fines políticos?
- Es complicado, pero traspasarle completamente la responsabilidad al usuario no es algo que haya resultado, y estamos donde estamos porque no puede ser sólo responsabilidad del usuario discernir si una noticia es verdadera o falsa. Hay varios países donde las personas sólo están expuestas a Facebook, ese es su internet, en el fondo las plataformas tienen gran responsabilidad.

Las plataformas no deben ser autorreguladas, no debería permitirse a ellos el criterio de cómo regularse porque lo han hecho súper mal y no saben hacerlo. Esto tiene que ser por organismos externos y por legisladores. Yo no tengo la solución de cómo se tiene que legislar, pero hay otros países que han ido avanzando. Pienso que se debe detectar actividad que sea organizada con la finalidad de manipular opinión pública: yo no digo 'voy a censurar', pero no voy a mostrar tanto ese contenido que no tiene representatividad ni apoyo.

- Esa es la definición de algoritmo.
- Hay algoritmos de machine learning, de aprendizaje de máquinas, que son de recomendación. Básicamente tienen una sola función objetivo que es maximizar tu tiempo e interacción con la plataforma porque a ellos les va bien en publicidad y clicks que muestran. Si tienes esa pura métrica, lo que va a pasar es que vas a sesgar tus algoritmos a optimizar eso. Esto ocurre con las noticias falsas y engañosas porque son más llamativas y van a generar esa interacción. Hay que poner algún incentivo a las plataformas para mostrar contenido de mejor calidad.

- La trama del documental The Social Dilemma trata de eso.
- El documental es como bien extremo y es una caricaturización con el afán de generar un impacto. Es interesante la discusión que pone, este riesgo de que podemos caer en una guerra civil. En la situación de pandemia, las redes se transforman en nuestra forma de comunicación, estamos muy cautivos de ellas. Uno esperaría que en situaciones normales, la oferta del lugar donde vives sea mejor, con otras cosas que te pudieran enganchar.

- Hablando de eso, ¿cómo podemos proteger nuestros datos?
- Yo creo que en Chile están muy desprotegidos nuestros datos. Hay muchos servicios de empresas y del Estado que te están pidiendo tu RUT y no tenemos claro cómo va a ser la protección. No sabemos si se va a compartir con terceros, o qué va a hacer una empresa privada con los datos. Es poco lo que podemos hacer como personas y necesitamos mejores legislaciones para la protección personal.

El abismo de inteligencia al sur de EE.UU.

- Hace unos días, planteaste que hay una brecha de inteligencia artificial con EE.UU.
- Hay un monopolio en el mundo, que está en Silicon Valley. En EE.UU. es muy difícil encontrar profesores de inteligencia artificial y de big data para las universidades porque la oferta de las empresas es súper grande. Incluso para los que estamos en Chile, estamos constantemente siendo tentados para irnos a trabajar a las grandes empresas de tecnología. El artículo que hicimos (con Jorge Pérez) tiene que ver con que no hay recursos para desarrollar, como datos, insumos, adaptados a la realidad latinoamericana.

Un ejemplo concreto es que para aprender tareas de lenguaje natural tú necesitas data sets gigantes o modelos preentrenados que sólo están en inglés. Hace poco, mi grupo en el DCC de la Universidad de Chile y en el Instituto Milenio Fundamento de los Datos ha empezado a generar estos recursos en español.

Si comparas los recursos para aprender inteligencia artificial con lo que hay en inglés, son poquísimos. Si nos dedicamos a comprar tecnología y aplicarla acá, vamos a tener muchos problemas de sesgo. Tenemos que empezar a desarrollar la tecnología y entenderla para que no perjudique a las personas que habitan en nuestra región.

- La desventaja es total. ¿De dónde deberían salir los recursos?
- Absolutamente en desventaja. Los estados debería invertir fuertemente. En Latinoamérica no hay un instituto grande que no sea financiado por una empresa. Hay que estudiar los problemas éticos de la IA y la aplicación segura de la tecnología. Esto es una revolución industrial en el fondo y va a cambiar todas las industrias. En Chile ya se está haciendo una inversión grande y no hay expertos externos independientes que puedan asesorar en estas inversiones.

"Los modelos son muy oscuros y la inteligencia artificial tiene la capacidad de discriminar a ciertos grupos y no te das cuenta. Hay que tomar en cuenta esas consideraciones. Yo no digo que sea malo, a mí me encanta la tecnología y la IA, pero me gustaría que se adopte de una manera en que cada peso que invirtamos nos dé un retorno y que no perjudique a ciertos grupos como siempre y beneficie a unos pocos".

- ¿Existe la posibilidad que estas tecnologías aumenten la brecha social?
- Sí, de todas maneras. Esto se vio en EE.UU. cuando se aplicó en el sistema judicial, con sistemas que ampliamente discriminaban a los afroamericanos y a los latinos. Esto genera un círculo en que empiezas a llenar las cárceles con personas de esos grupos y va perpetuando la inequidad social. Esas cosas pasan porque si estás entrenando un sistema basado en todo lo que ha existido, vas a mantener lo que está en el sistema.

Las3Claves de los datos de redes sociales tras el 18-O. "El cambio se ha ido dando en el tiempo, donde ciertos grupos han entendido cómo manipular la información que muestran las redes sociales, hacerle el juego al algoritmo para aumentar la visibilidad de sus contenidos. Eso ha aumentado la sensación de polarización, pero las redes sociales no son todo y no significa que el mundo de verdad esté polarizado.

Lo segundo que yo rescato es la capacidad que nos dan de podernos coordinar y armar movimientos sociales que son auténticos.

La tercera clave es cómo protegerse de la desinformación. Las redes son sumamente valiosas porque democratizan la producción de la información y podemos ante cualquier hecho tener un montón de puntos de vista y podemos armarnos una visión. Es importante no quedarnos sólo con lo que nos está mostrando la plataforma, que son nuestros amigos y que piensan igual que nosotros y confirma nuestras creencias. Una herramienta poderosa es buscar los mensajes de otras personas que estén hablando de eso, ampliar nuestra visión y contrastar con fuentes externas".