LA MANIPULACIÓN DE LAS "BIG TECH"
Un experto en IA (Inteligencia Artificial)
explica cómo las “Big Tech” manipulan lo que pensás.
Autor: Joe Allen
Traducción: María
Fernanda Tognola
Diario: The Federalist
Nota original:
Artificial Intelligence Expert Explains How Big Tech Manipulates What You Think
Justin Lane es un
experto de la Universidad de Oxford entrenado en IA sin paciencia para las
teorías insustanciales. Su investigación abarca tanto el campo de la cognición –
humana y artificial – como el de la religión y el conflicto.
Eso llevó a una fascinante
experiencia de trabajo en Irlanda del Norte, en donde estudió a los extremistas
del Ejército Republicano Irlandés y de la Asociación en Defensa del Ulster de
cerca. Por último, aplicó su investigación en humanidades a la programación de
IA y simulaciones de computadoras basadas en un agente.
De alguna forma se
las ingenió para entrar con un título de pregrado a Baltimore como un liberal del
Partido Verde y emerger de las torres de marfil de Inglaterra como partidario
de la segunda enmienda. Él se describe actualmente como políticamente moderado
con un “toque libertario”.
Cuando lo conocí, Lane
trabajaba en el Centro para Mente y Cultura en Boston. Profundamente corrompido
por el capitalismo, el prometedor académico co-fundó una empresa internacional
de análisis de datos que trabaja con clientes de alto perfil corporativo y
académico. Es uno de esos tipos pálidos
y de traje vigilando la Matrix, pero está contento de darnos a nosotros los
humanos cautivos un recorrido.
Desde atrás de mi
laptop, este tecnócrata ricachón se ve como una nube oscura que llueve verdades
a media y trivias engañosas. Ojos de robot que ven nuestras almas disolverse en
la oscuridad.
Lane es más
optimista. Me asegura que el mundo tech es meramente una serie de herramientas
complejas. La clave está en saber cómo usarlas correctamente. El buen doctor se
juntó conmigo virtualmente a tomar un coñac y café (él está en Eslovaquia, yo
en Estados Unidos- y nunca tomo antes del mediodía).
JOE ALLEN:
Desde tu perspectiva como analista de redes, ¿cómo lucen las masas ignorantes
desde el punto de vista de un Dios? ¿Estoy siendo paranoico o vienen por
nosotros?
JUSTIN LANE: Empresas como Google, Facebook o
Twitter – o empresas analíticas como la mía – juntan muchísima información de
los usuarios. Esto es lo que la mayoría de la gente conoce por estos días como
“Big Data”.
Lo que la mayoría de
las empresas está haciendo es observar los datos masivos, ver cuáles son los
patrones. En general, el contenido específico de lo que se postea no es de
interés a la empresa, los científicos de datos, o sus algoritmos. Estos son
solamente sistemas de ingeniería que pueden aprender esos patrones para poder
rastrear e incrementar la interacción de los usuarios individuales.
Sin embargo, en la
base de datos en alguna parte esa información sí existe a nivel individual. A
lo mejor es en Twitter, o en una base de datos corporativa, o en una base de
datos inteligente en alguna parte. Esa información personal se puede usar para
fines nefastos. Hay obvias implicaciones éticas.
Considerá el uso de
la inteligencia en China, donde si decís algo malo sobre el régimen, tu crédito
social baja. No están fijándose en los datos en general, lo que están diciendo
es: “No, vos, en el día de hoy, dijiste algo crítico contra el gobierno, y
entonces ahora no podés comprar un pasaje de tren.”
Yo diría que lo que
China está haciendo actualmente es lo más cercano a la clase de horror
distópico al que todos le tenemos miedo, mientras que la mayoría de las
corporaciones norteamericanas están más interesadas en el hecho de que se les
paga por cada click. Esa es una diferencia importante, me parece.
JA: ¿Este
amplio mapa de la opinión pública no podría usarse para manipular – más allá de
la campaña de Obama con el data-scraping o el caso de Cambridge Analytica y
Donald Trump?
JL: La posibilidad de
manipular la opinión pública es enorme. El usuario promedio está siendo
manipulado activa y pasivamente.
Los están manipulando
activamente en el sentido de que cualquiera que alguna vez haya encendido la
televisión o una radio fue manipulado. El mercado existe para manipularnos
asegurándonos que el momento en que necesitemos algo, vamos a necesitar una
marca específica. Esa es la influencia de la publicidad. Esto escala a un nivel
nunca antes imaginado con la info que tienen las redes sociales, y la cantidad
de gente que interactúa en una sola plataforma.
Al mismo tiempo,
también hay manipulación pasiva, que tiene que ver con lo que la compañía
permite en su sitio – cómo están produciendo y cambiando algorítmicamente la
información que vemos.
Desde una perspectiva
psicológica, sabemos que cuanto más se puede repetir la información, es más
probable que se recuerde. A esto le llamamos “aprendizaje”. Entonces cuando una
red social decide que van a censurar cierto tipo de información, ya decidieron
que no van a dejar que sus usuarios sepan de esa información tan fácilmente.
Hasta cierto punto,
esto existe de maneras que creo que son éticamente imperiosas, como cuando hay
ciertas situaciones de peligro para los niños, o gente indefensa que es
atacada. Pero editar las opiniones de los usuarios es un área gris. ¿A quién
estás protegiendo al retirar determinado discurso político? ¿A quién estás protegiendo
con la práctica de excluir gente por sus ideas políticas?
Hasta ése punto
estamos siendo obviamente manipulados. Si eso está bien o mal depende
ampliamente de qué lado del espectro político estás, porque parece ocurrirle a
voces conservadoras más que a las voces liberales. Se puede ver mucho esto en
la diferencia entre “¿Qué es discurso de odio?” y “Cuál es el discurso que
odiás?”
JA: ¿Las IA
están vigilando nuestro discurso en estas plataformas?
JL: Sí,
absolutamente. Facebook informa que un muy por arriba del 90 por ciento de los
avisos de contenido ofensivo se hacen algorítmicamente, a través de sistemas de
inteligencia artificial. Esto después lo revisan humanos. Y están así
auto-entrenando a la IA basándose en el contenido marcado como ofensivo.
Esto es solo
especulación, pero si los conservadores están siendo censurados más que los
liberales, puede ser porque ciertas tendencias políticas son más susceptibles
de ofenderse. Así que la tendencia para la censura que actualmente vemos en las
redes sociales pueden no estar enteramente relacionadas a la inclinación
política de los dueños de las compañías tech, a los censores que trabajan allí
o al diseño de algoritmos.
Porque Facebook usa
las decenas de millones de informes de usuarios que marcan contenido que los
ofenden para entrenar sus algoritmos, parte de la tendencia política del
sistema va a ser probablemente un reflejo de las voces más ruidosas de la sala.
Si los conservadores no se involucran activamente en reportar contenido como
ofensivo, entonces no están incluyendo esos datos en la base de datos, y sus opiniones
no se van a reflejar en los algoritmos.
[Una mueca de
astucia se despliega en el rostro de Lane.]
Una cosa que los
conservadores podrían hacer – sería muy interesante ver hasta qué punto esto
funciona en Facebook- es cuando ven algo que saben que sería marcado ofensivo
si la situación fuera al revés, marcarla como ofensiva. Es posible que los
algoritmos en las redes sociales van a aprender que el discurso de izquierda es
ofensivo y cambiar la forma en que se tildan las cosas. Sería un interesante
experimento social.
JA: Como alguien
criado en un ambiente conservador, ¿cómo fué tu experiencia académica?
JL: Después de mi
pregrado, fuí a Europa porque era el único lugar en que podía estudiar el
modelado en computadora del comportamiento humano de la forma en que yo quería.
Primero fuí a Belfast, en donde la naturaleza humana y las creencias culturales
tienen una muy larga y agotadora historia de violencia.
Esto es en el Reino
Unido, en donde no se puede tener armas. A pesar de eso, había miles de
personas muertas por armas y bombas durante el Conflicto Norirlandés (The Troubles).
Eso como que reafirmó mi nueva creencia
de que la naturaleza humana es mucho más importante que cualquier ley hecha por
el hombre.
Después fuí a Oxford,
en donde estuve básicamente manejándome en dos mundos. Por un lado, era un
miembro activo de la sociedad Hayek, que es una sociedad económica libertaria,
y se unían a eventos con toda clase de gente. Los conferencistas invitados
hablaban críticamente sobre problemas relacionados a la economía, la libertad y
la moral.
Por otro lado, mi
experiencia de la más amplia cultura de campus fue que podías participar en un
debate solamente si eras parte de un coro de individuos que estaban de acuerdo.
Este es un gran
problema en las universidades de Ivy League. La Universidad Brown rastreaba
cuántos oradores conservadores aparecen en el campus – algo así como más del 90
por ciento de todos los oradores son liberales o con tendencias de izquierda en
los campus universitarios en Estados Unidos. Eso es parte de la misma caja de
resonancia que existe incluso en Oxford, aunque son mucho mejores que en otras universidades.
La universidad de Chicago es también todavía un bastión del libre discurso.
Cuando terminé mi
investigación en Oxford, hice trabajo post-doctorado en la Universidad de
Boston, y fué un shock y un despertar a cuán malo el sistema universitario
norteamericano se había vuelto como institución educativa. No es que no
promuevan el pensamiento crítico para nada, el tema es que sólo promueven
respuestas regurgitadas.
Si tu conclusión no
es como la de los críticos teóricos- gente que es básicamente neo-Marxista,
investigadores de interseccionalidad – entonces no sos bien recibido para hacer
oír tu voz. Y si lo haces igual, te arriesgás a ser cancelado. Llevó a una
forma de autoritarismo y extremismo que me parece que es muy poco sano.
El profesor Ibram X.
Kendi en la Universidad de Boston [fundador del Nuevo Centro de Investigación Antirracista]
hizo comentarios que pueden interpretarse tanto como racistas y transfóbicos. Aun
así es respaldado por la universidad. Pero la universidad no se va a poner del
lado de los Republicanos en el campus que cuestionan a Kendi cuando los atacan
organizaciones de estudiantes de izquierda. Desafortunadamente, este patrón
parece estar creciendo en todo Estados Unidos.
Joe Allen es un
primate que se pregunta por qué se nos ocurrió bajarnos de los árboles. Por
años trabajó en el backstage de varias giras musicales. En el medio de eso,
estudio religión y ciencia en UTK y la Universidad de Boston. Encontralo en www.joebot.xyz o @EvoPsychosis.