LA MANIPULACIÓN DE LAS "BIG TECH"

 


Un experto en IA (Inteligencia Artificial) explica cómo las “Big Tech” manipulan lo que pensás.



Un experto de la Universidad de Oxford entrenado en IA explica el mecanismo de supresión del pensamiento que hay detrás de las “Big Tech”, la Inteligencia Artificial policía, y el pensamiento grupal en los campus universitarios.

Autor: Joe Allen

Traducción: María Fernanda Tognola

Diario: The Federalist

Nota original: 

Artificial Intelligence Expert Explains How Big Tech Manipulates What You Think


Justin Lane es un experto de la Universidad de Oxford entrenado en IA sin paciencia para las teorías insustanciales. Su investigación abarca tanto el campo de la cognición – humana y artificial – como el de la religión y el conflicto.

Eso llevó a una fascinante experiencia de trabajo en Irlanda del Norte, en donde estudió a los extremistas del Ejército Republicano Irlandés y de la Asociación en Defensa del Ulster de cerca. Por último, aplicó su investigación en humanidades a la programación de IA y simulaciones de computadoras basadas en un agente.

De alguna forma se las ingenió para entrar con un título de pregrado a Baltimore como un liberal del Partido Verde y emerger de las torres de marfil de Inglaterra como partidario de la segunda enmienda. Él se describe actualmente como políticamente moderado con un “toque libertario”.

Cuando lo conocí, Lane trabajaba en el Centro para Mente y Cultura en Boston. Profundamente corrompido por el capitalismo, el prometedor académico co-fundó una empresa internacional de análisis de datos que trabaja con clientes de alto perfil corporativo y académico.  Es uno de esos tipos pálidos y de traje vigilando la Matrix, pero está contento de darnos a nosotros los humanos cautivos un recorrido.

Desde atrás de mi laptop, este tecnócrata ricachón se ve como una nube oscura que llueve verdades a media y trivias engañosas. Ojos de robot que ven nuestras almas disolverse en la oscuridad.

Lane es más optimista. Me asegura que el mundo tech es meramente una serie de herramientas complejas. La clave está en saber cómo usarlas correctamente. El buen doctor se juntó conmigo virtualmente a tomar un coñac y café (él está en Eslovaquia, yo en Estados Unidos- y nunca tomo antes del mediodía).

 

JOE ALLEN: Desde tu perspectiva como analista de redes, ¿cómo lucen las masas ignorantes desde el punto de vista de un Dios? ¿Estoy siendo paranoico o vienen por nosotros?

 JUSTIN LANE: Empresas como Google, Facebook o Twitter – o empresas analíticas como la mía – juntan muchísima información de los usuarios. Esto es lo que la mayoría de la gente conoce por estos días como “Big Data”.

Lo que la mayoría de las empresas está haciendo es observar los datos masivos, ver cuáles son los patrones. En general, el contenido específico de lo que se postea no es de interés a la empresa, los científicos de datos, o sus algoritmos. Estos son solamente sistemas de ingeniería que pueden aprender esos patrones para poder rastrear e incrementar la interacción de los usuarios individuales.

Sin embargo, en la base de datos en alguna parte esa información sí existe a nivel individual. A lo mejor es en Twitter, o en una base de datos corporativa, o en una base de datos inteligente en alguna parte. Esa información personal se puede usar para fines nefastos. Hay obvias implicaciones éticas.

Considerá el uso de la inteligencia en China, donde si decís algo malo sobre el régimen, tu crédito social baja. No están fijándose en los datos en general, lo que están diciendo es: “No, vos, en el día de hoy, dijiste algo crítico contra el gobierno, y entonces ahora no podés comprar un pasaje de tren.”

Yo diría que lo que China está haciendo actualmente es lo más cercano a la clase de horror distópico al que todos le tenemos miedo, mientras que la mayoría de las corporaciones norteamericanas están más interesadas en el hecho de que se les paga por cada click. Esa es una diferencia importante, me parece.

 

JA: ¿Este amplio mapa de la opinión pública no podría usarse para manipular – más allá de la campaña de Obama con el data-scraping o el caso de Cambridge Analytica y Donald Trump?

JL: La posibilidad de manipular la opinión pública es enorme. El usuario promedio está siendo manipulado activa y pasivamente.

Los están manipulando activamente en el sentido de que cualquiera que alguna vez haya encendido la televisión o una radio fue manipulado. El mercado existe para manipularnos asegurándonos que el momento en que necesitemos algo, vamos a necesitar una marca específica. Esa es la influencia de la publicidad. Esto escala a un nivel nunca antes imaginado con la info que tienen las redes sociales, y la cantidad de gente que interactúa en una sola plataforma.

Al mismo tiempo, también hay manipulación pasiva, que tiene que ver con lo que la compañía permite en su sitio – cómo están produciendo y cambiando algorítmicamente la información que vemos.

Desde una perspectiva psicológica, sabemos que cuanto más se puede repetir la información, es más probable que se recuerde. A esto le llamamos “aprendizaje”. Entonces cuando una red social decide que van a censurar cierto tipo de información, ya decidieron que no van a dejar que sus usuarios sepan de esa información tan fácilmente.

Hasta cierto punto, esto existe de maneras que creo que son éticamente imperiosas, como cuando hay ciertas situaciones de peligro para los niños, o gente indefensa que es atacada. Pero editar las opiniones de los usuarios es un área gris. ¿A quién estás protegiendo al retirar determinado discurso político? ¿A quién estás protegiendo con la práctica de excluir gente por sus ideas políticas?

Hasta ése punto estamos siendo obviamente manipulados. Si eso está bien o mal depende ampliamente de qué lado del espectro político estás, porque parece ocurrirle a voces conservadoras más que a las voces liberales. Se puede ver mucho esto en la diferencia entre “¿Qué es discurso de odio?” y “Cuál es el discurso que odiás?”

JA: ¿Las IA están vigilando nuestro discurso en estas plataformas?

JL: Sí, absolutamente. Facebook informa que un muy por arriba del 90 por ciento de los avisos de contenido ofensivo se hacen algorítmicamente, a través de sistemas de inteligencia artificial. Esto después lo revisan humanos. Y están así auto-entrenando a la IA basándose en el contenido marcado como ofensivo.

Esto es solo especulación, pero si los conservadores están siendo censurados más que los liberales, puede ser porque ciertas tendencias políticas son más susceptibles de ofenderse. Así que la tendencia para la censura que actualmente vemos en las redes sociales pueden no estar enteramente relacionadas a la inclinación política de los dueños de las compañías tech, a los censores que trabajan allí o al diseño de algoritmos.

Porque Facebook usa las decenas de millones de informes de usuarios que marcan contenido que los ofenden para entrenar sus algoritmos, parte de la tendencia política del sistema va a ser probablemente un reflejo de las voces más ruidosas de la sala. Si los conservadores no se involucran activamente en reportar contenido como ofensivo, entonces no están incluyendo esos datos en la base de datos, y sus opiniones no se van a reflejar en los algoritmos.

[Una mueca de astucia se despliega en el rostro de Lane.]

Una cosa que los conservadores podrían hacer – sería muy interesante ver hasta qué punto esto funciona en Facebook- es cuando ven algo que saben que sería marcado ofensivo si la situación fuera al revés, marcarla como ofensiva. Es posible que los algoritmos en las redes sociales van a aprender que el discurso de izquierda es ofensivo y cambiar la forma en que se tildan las cosas. Sería un interesante experimento social.

JA: Como alguien criado en un ambiente conservador, ¿cómo fué tu experiencia académica?

JL: Después de mi pregrado, fuí a Europa porque era el único lugar en que podía estudiar el modelado en computadora del comportamiento humano de la forma en que yo quería. Primero fuí a Belfast, en donde la naturaleza humana y las creencias culturales tienen una muy larga y agotadora historia de violencia.

Esto es en el Reino Unido, en donde no se puede tener armas. A pesar de eso, había miles de personas muertas por armas y bombas durante el Conflicto Norirlandés (The Troubles).  Eso como que reafirmó mi nueva creencia de que la naturaleza humana es mucho más importante que cualquier ley hecha por el hombre.

Después fuí a Oxford, en donde estuve básicamente manejándome en dos mundos. Por un lado, era un miembro activo de la sociedad Hayek, que es una sociedad económica libertaria, y se unían a eventos con toda clase de gente. Los conferencistas invitados hablaban críticamente sobre problemas relacionados a la economía, la libertad y la moral.

Por otro lado, mi experiencia de la más amplia cultura de campus fue que podías participar en un debate solamente si eras parte de un coro de individuos que estaban de acuerdo.

Este es un gran problema en las universidades de Ivy League. La Universidad Brown rastreaba cuántos oradores conservadores aparecen en el campus – algo así como más del 90 por ciento de todos los oradores son liberales o con tendencias de izquierda en los campus universitarios en Estados Unidos. Eso es parte de la misma caja de resonancia que existe incluso en Oxford, aunque son mucho mejores que en otras universidades. La universidad de Chicago es también todavía un bastión del libre discurso.

Cuando terminé mi investigación en Oxford, hice trabajo post-doctorado en la Universidad de Boston, y fué un shock y un despertar a cuán malo el sistema universitario norteamericano se había vuelto como institución educativa. No es que no promuevan el pensamiento crítico para nada, el tema es que sólo promueven respuestas regurgitadas.

Si tu conclusión no es como la de los críticos teóricos- gente que es básicamente neo-Marxista, investigadores de interseccionalidad – entonces no sos bien recibido para hacer oír tu voz. Y si lo haces igual, te arriesgás a ser cancelado. Llevó a una forma de autoritarismo y extremismo que me parece que es muy poco sano.

El profesor Ibram X. Kendi en la Universidad de Boston [fundador del Nuevo Centro de Investigación Antirracista] hizo comentarios que pueden interpretarse tanto como racistas y transfóbicos. Aun así es respaldado por la universidad. Pero la universidad no se va a poner del lado de los Republicanos en el campus que cuestionan a Kendi cuando los atacan organizaciones de estudiantes de izquierda. Desafortunadamente, este patrón parece estar creciendo en todo Estados Unidos.

Joe Allen es un primate que se pregunta por qué se nos ocurrió bajarnos de los árboles. Por años trabajó en el backstage de varias giras musicales. En el medio de eso, estudio religión y ciencia en UTK y la Universidad de Boston. Encontralo en www.joebot.xyz o @EvoPsychosis.

 


Entradas populares

Traducir