Ir al contenido principal

¿DECIDIMOS NOSOTROS?

 


El capitalismo de la vigilancia, tal como lo expone Shoshana Zuboff, hoy va configurando una nueva visión sobre el control de las decisiones en la sociedad contemporánea y nos permite entender cómo la tecnología, los datos y la psicología interactúan para moldear el comportamiento humano a escala masiva, impactando tanto la economía como la política.

En el marco del capitalismo de la vigilancia, Zuboff nos alerta sobre la extracción masiva de datos personales. Las grandes plataformas digitales, como Google y Facebook, recopilan, analizan y comercializan nuestra información, no solo para prever nuestras acciones, sino también para influir directamente en ellas. Y es interesante también como este modelo se ha infiltrado en la política, donde los datos de los votantes son utilizados para influir sus decisiones electorales. El conocimiento íntimo de nuestras conductas y preferencias permite a los actores políticos crear campañas ultra-dirigidas, diseñadas para desencadenar respuestas emocionales específicas, subliminares.

Esta lógica de control encuentra un complemento en la obra de Byung-Chul Han, quien describe un cambio en la forma en que las sociedades son controladas. En lugar de la represión externa, como sugería Michel Foucault en su concepto de las sociedades disciplinarias, Han sostiene que vivimos en una sociedad de autocontrol. En este nuevo paradigma, las personas son inducidas a explotar y optimizar su propia vida en busca de éxito y reconocimiento. Las redes sociales y las plataformas digitales refuerzan esta dinámica, alentando a los individuos a mostrar su vida constantemente, a buscar likes y aprobación. Este proceso de transparencia voluntaria no solo facilita la vigilancia, sino que también refuerza el control psicológico, ya que las personas ajustan su comportamiento para encajar en las expectativas colectivas.

El neuromarketing político se nutre y a la vez refuerza esta estructura. Basado en principios de la neurociencia, esta técnica permite a las campañas políticas diseñar mensajes que activen respuestas emocionales específicas en los votantes. A través del análisis de datos obtenidos mediante la vigilancia masiva, los estrategas políticos pueden segmentar a los votantes según sus predisposiciones emocionales y neurológicas, creando mensajes que apelan directamente a sus miedos, esperanzas o inseguridades. Esto significa que el ciudadano cada vez más toma decisiones políticas desde el terreno emocional, muy influido de manera inconsciente en sus preferencias y acciones.

El vínculo entre estos conceptos es profundo: el capitalismo de la vigilancia proporciona las herramientas para recolectar los datos que luego son utilizados por el neuromarketing, político y económico, para generar respuestas emocionales dirigidas. Además, las ideas de Han sobre la psico-política muestran cómo este control se ha internalizado en las personas. Los ciudadanos no solo son inducidos por actores externos, sino que han sido condicionados para aceptar y participar activamente en su propia vigilancia y explotación, creyendo que están ejerciendo su libertad cuando, en realidad, están siendo dirigidos hacia comportamientos predecibles y rentables.

Así, el poder contemporáneo ya no se ejerce tanto a través de la coerción física o la represión directa, sino principalmente mediante mecanismos invisibles que penetran en la psique de los individuos. Las campañas políticas, respaldadas por la recopilación masiva de datos y las técnicas de neuro-marketing, logran movilizar a las masas no por medio de la argumentación racional, sino explotando sus emociones más profundas y subconscientes (verdadero paraíso para el análisis freudiano). La interrelación entre estos sistemas de control redefine la democracia, modificando el debate público, que hace algunas décadas atrás se creía informado y autónomo.

El poder creciente de los algoritmos

Los algoritmos están jugando un papel cada vez más importante en la toma de decisiones de consumidores e inversores, influenciando qué productos compran, a quiénes votan o dónde colocan su dinero. A través del análisis de grandes volúmenes de datos (big data), los algoritmos y la inteligencia artificial pueden predecir preferencias, comportamientos y oportunidades de inversión con una precisión que supera la capacidad humana.

En el caso de los consumidores, plataformas como Amazon, Netflix o Spotify utilizan algoritmos de recomendación basados en el historial de búsquedas, compras y preferencias previas. Estos sistemas personalizan las ofertas y sugieren productos o contenidos, guiando las elecciones del usuario. Los algoritmos no solo responden a los gustos actuales del consumidor, sino que también crean necesidades/deseos nuevos, al exponerlo a productos que no sabía que le interesaban.

Por otro lado, en el mundo de las inversiones sucede algo parecido, los algoritmos de trading automatizado (conocidos como trading algorítmico) toman decisiones en fracciones de segundo, basándose en el análisis de datos financieros, patrones de mercado y noticias en tiempo real. Estos algoritmos pueden identificar oportunidades y ejecutar transacciones sin intervención humana, lo que optimiza la velocidad y la eficiencia en los mercados financieros. Además, plataformas de inversión como Robinhood o Wealthfront, entre varias otras, usan algoritmos para crear portafolios personalizados, según el perfil de riesgo y los objetivos financieros del inversor.

En ambos casos, los algoritmos influyen en las decisiones al explotar grandes cantidades de información, muchas veces guiando las elecciones sin que el usuario sea completamente consciente de su impacto. Aunque aportan eficiencia y personalización, también plantean interrogantes sobre el grado de autonomía que las personas tienen sobre sus decisiones de consumo e inversión, ya que los algoritmos, en última instancia, están diseñados para maximizar el beneficio de las plataformas que los emplean.

Yuval Harari

El notable historiador Yuval Noah Harari ha ofrecido reflexiones importantes sobre los impactos del capitalismo de la vigilancia, especialmente en el contexto de la política, la economía y el uso de datos. Harari advierte que la vigilancia masiva, impulsada por el crecimiento de la tecnología y la recopilación de datos, tiene el potencial de transformar radicalmente las sociedades, erosionar la democracia y concentrar el poder en manos de unas pocas élites tecnológicas y gobiernos autoritarios. Veamos un poco más sus postulados:

Control de datos y poder político

Harari sugiere que quien controle los datos controlará el futuro de la humanidad. En este sentido, compara a las corporaciones tecnológicas con antiguos regímenes autoritarios, alertando que, a medida que los datos biométricos y psicológicos son recopilados y analizados, el poder de manipular emociones y comportamientos aumentará drásticamente. Este tipo de vigilancia no solo permite predecir comportamientos, sino también moldear las elecciones individuales, debilitando la autonomía y el libre albedrío.

En el caso de China, Harari señala que el uso de tecnologías de vigilancia para el control estatal, como el Sistema de Crédito Social, es un ejemplo claro de cómo los datos pueden ser utilizados para construir dictaduras digitales. Para Harari, este tipo de vigilancia, combinada con inteligencia artificial, podría consolidar el poder de regímenes autoritarios de manera sin precedentes, eliminando la posibilidad de resistencia o disidencia.

La amenaza a la democracia

En las democracias occidentales, como EE.UU. y Europa, Harari ve un peligro diferente pero igualmente alarmante. Si bien las corporaciones tecnológicas aún no son gobiernos, su capacidad para recopilar datos íntimos y explotar debilidades emocionales plantea riesgos serios para la democracia. El uso del “neuromarketing” político, por ejemplo, convierte las campañas electorales en guerras de “manipulación emocional”, donde las decisiones se basan menos en debates racionales y más en la explotación de miedos y deseos subconscientes. Para Harari, esto debilita el “poder de la ciudadanía” para tomar decisiones informadas, ya que son manipulados a través de estrategias invisibles.

La concentración del poder económico

Harari también ha señalado el riesgo de que el “poder económico” se concentre cada vez más en las manos de unos pocos gigantes tecnológicos. Las empresas que controlan los datos controlan la economía, y esto puede exacerbar la “desigualdad global”. Aquellos que tienen acceso a grandes cantidades de información sobre el comportamiento humano tienen una ventaja competitiva enorme, lo que lleva a la creación de monopolios digitales. Esta concentración de poder no solo afecta a la competencia, sino que también permite a estas empresas influir en la política, los medios y el comercio global.

La vulnerabilidad humana ante el control algorítmico

Harari es especialmente crítico respecto al papel de los “algoritmos” en la toma de decisiones humanas. Sostiene que a medida que los algoritmos recopilan y procesan datos más íntimos sobre las personas (emociones, preferencias, patrones de comportamiento), los seres humanos pueden perder el control sobre sus propias vidas. En su opinión, los algoritmos podrían conocernos mejor que nosotros mismos, anticipando nuestras elecciones antes de que las tomemos conscientemente. Esto plantea una cuestión ética profunda: si dejamos que los algoritmos tomen decisiones por nosotros, ¿qué queda de nuestra “autonomía personal”?

Europa: Un posible refugio de los derechos humanos

Harari reconoce que Europa, con sus regulaciones como el “GDPR”, está tratando de proteger la privacidad y los derechos humanos frente al capitalismo de la vigilancia. Sin embargo, advierte que las regulaciones pueden no ser suficientes si las tecnologías avanzan más rápido que las leyes. Para él, Europa enfrenta el desafío de liderar un modelo que equilibre el “progreso tecnológico” con la “protección de las libertades individuales”, mientras compite con potencias tecnológicas como Estados Unidos y China, que adoptan enfoques más permisivos o autoritarios.

En resumen, Harari ve el capitalismo de la vigilancia como una fuerza que está rediseñando las estructuras de poder a nivel global. La combinación de datos masivos, algoritmos y tecnología avanzada puede ser usada tanto para empoderar a los ciudadanos como para controlarlos, dependiendo de quién tenga el acceso y el control sobre esa información. Para evitar los peligros de una “dictadura digital” o una “oligarquía corporativa”, Harari insta a la humanidad a tener un “debate ético profundo” sobre cómo deben usarse los datos y qué tipo de futuro queremos construir en la era de la vigilancia.

China, Europa y Estados Unidos

El “capitalismo de la vigilancia” tiene características particulares en “China”, “Europa” y “Estados Unidos”, moldeadas por sus diferentes enfoques sobre la privacidad, el control estatal y el poder corporativo. A continuación, se comparan estos tres casos:

China: Vigilancia estatal masiva y control centralizado

En China, el capitalismo de la vigilancia está dominado por el “Estado”, que utiliza la tecnología para mantener un control social y político estricto. El gobierno chino, en colaboración con grandes empresas tecnológicas nacionales como Tencent y Alibaba, ha implementado un sistema de “vigilancia masiva” que incluye cámaras con reconocimiento facial, seguimiento de datos digitales y el “Sistema de Crédito Social”, que evalúa el comportamiento de los ciudadanos y las empresas.

§      En China, el capitalismo de la vigilancia se enfoca en el “control social y político”. El gobierno utiliza los datos no solo para fines comerciales, sino también para rastrear y reprimir disidencia política, asegurando la estabilidad del régimen. La vigilancia se integra en casi todos los aspectos de la vida diaria, desde el acceso a servicios públicos hasta la vida personal y profesional de los ciudadanos.

§   Las empresas tecnológicas chinas trabajan estrechamente con el Estado, compartiendo datos para garantizar que las políticas de control se implementen eficazmente.

Estados Unidos: Poder corporativo y explotación de datos

En Estados Unidos, el capitalismo de la vigilancia está dominado principalmente por el “sector privado”. Gigantes tecnológicos como Google, Facebook y Amazon recopilan masivamente datos de los usuarios, principalmente con fines comerciales. Estas empresas se han vuelto poderosas al explotar la información para personalizar productos y servicios, maximizar el consumo y generar grandes beneficios a través de la publicidad dirigida.

§      En EE.UU., el capitalismo de la vigilancia está enfocado en la “monetización de los datos”. Las grandes empresas tecnológicas extraen y comercializan datos de usuarios para generar ingresos publicitarios, desarrollar productos dirigidos y monopolizar el mercado digital. La vigilancia es más sutil, ya que los usuarios, en muchos casos, consienten el uso de sus datos sin ser plenamente conscientes de su alcance.

§     A diferencia de Europa, la regulación de la privacidad en EE.UU. es relativamente débil. Las empresas tienen gran libertad para usar los datos, lo que ha permitido la consolidación de grandes monopolios digitales que controlan vastas cantidades de información.

      Europa: Protección de la privacidad y regulación más estricta

Europa adopta un enfoque más “regulatorio” y de protección de la privacidad en el capitalismo de la vigilancia. La “Unión Europea” ha implementado leyes estrictas, como el “Reglamento General de Protección de Datos (GDPR)”, que pone límites al uso de datos personales y otorga más control a los usuarios sobre cómo se utilizan sus datos.

§   En Europa, el “derecho a la privacidad” es fundamental. El GDPR obliga a las empresas a ser transparentes sobre el uso de los datos y garantiza que los ciudadanos tengan el derecho de acceder, modificar o eliminar su información personal. Este enfoque ha creado un ambiente donde las empresas tecnológicas enfrentan mayores restricciones para recolectar y monetizar datos.

§      La UE ha sido más activa en regular y sancionar a las grandes empresas tecnológicas por violaciones de privacidad, marcando una diferencia notable con EE.UU. Sin embargo, estas regulaciones pueden limitar el crecimiento de nuevas empresas tecnológicas europeas en comparación con los monopolios digitales estadounidenses.

Para finalizar: ¿decidimos nosotros o un “nosotros ampliado”?

En conclusión, el “capitalismo de la vigilancia”, las teorías de “Byung-Chul Han” y el “neuromarketing” político revelan una transformación estructural en cómo se ejerce el poder. El control ya no es visible ni frontal; se ha infiltrado en los rincones más íntimos de nuestras vidas, moldeando nuestras emociones, decisiones y comportamientos sin que siquiera seamos plenamente conscientes de ello.

La neurociencia sostiene que muchas de nuestras “decisiones” son “subconscientes”, es decir, ocurren sin que tengamos plena consciencia de ellas. El cerebro procesa una gran cantidad de información de forma automática, utilizando atajos mentales o "heurísticas" que nos permiten tomar decisiones rápidas sin un análisis profundo. Estudios muestran que áreas cerebrales relacionadas con las emociones y la recompensa (como el “sistema límbico”) juegan un rol crucial en este proceso.

En muchas situaciones, nuestras “emociones” y experiencias pasadas influyen en nuestras elecciones antes de que tengamos tiempo de racionalizarlas. Aunque creemos que decidimos conscientemente, la neurociencia demuestra que nuestras decisiones están fuertemente condicionadas por estos procesos automáticos, lo que explica por qué a menudo actuamos de manera intuitiva o impulsiva sin entender completamente el "por qué" detrás de nuestras elecciones.

El “capitalismo de la vigilancia” está teniendo impactos significativos en la política y la economía actuales, transformando la forma en que operan tanto los mercados como las democracias.

Ø   BIBLIOGRAFÍA y LECTURAS RECOMENDADAS

1.       Zuboff, Shoshana (2019). *The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power*. PublicAffairs.
2.       Harari, Yuval Noah (2018). *21 Lessons for the 21st Century*. Spiegel & Grau.
3.       Byung-Chul Han (2017). *Psychopolitics: Neoliberalism and New Technologies of Power*. Verso.
4.       Carr, Nicholas (2011). *The Shallows: What the Internet Is Doing to Our Brains*. W.W. Norton & Company.
5.       Tufekci, Zeynep (2017). *Twitter and Tear Gas: The Power and Fragility of Networked Protest*. Yale University Press.
6.       Kahneman, Daniel (2011). *Thinking, Fast and Slow*. Farrar, Straus and Giroux.
7.       Ariely, Dan (2008). *Predictably Irrational: The Hidden Forces That Shape Our Decisions*. HarperCollins.
8.       Andrejevic, Mark (2007). *iSpy: Surveillance and Power in the Interactive Era*. University Press of Kansas.
9.       Morozov, Evgeny (2011). *The Net Delusion: The Dark Side of Internet Freedom*. PublicAffairs.
10.   Hancock, Jefferson y Poynor, Robin (2020). *Neuromarketing: Exploring the Brain of the Consumer*. Emerald Group Publishing.


        I.    

         

Comentarios

Entradas populares de este blog

Marcadores Somáticos: Atajos para la Toma de Decisiones

La hipótesis del marcador somático, de la mano de Antonio Damasio, ha sido muy relevante al momento de comprender el papel que juega la emoción en la toma de decisiones. La idea consiste en que las consecuencias de una decisión producen en la persona una determinada reacción emocional que es subjetiva, que se puede “vivenciar”, y que a su vez es somática, es decir se traduce en reacciones musculares, neuroendócrinas o neurofisiológicas. Esta respuesta emocional a su vez se puede asociar con consecuencias, ya sean negativas o positivas, que se repiten con cierta constancia en el tiempo y que provoquen dicha respuesta. Este mecanismo de asociación es el que produce lo que Damasio llama “marcador somático” y que influye en las decisiones a tomar a futuro. De esta manera, la reacción emotiva pasada influye en la toma de decisiones futura, posibilitando la anticipación de las consecuencias y guiando el proceso de resolución final. En este sentido se afirma que los marcadores

UN MUNDO DE GENTE APURADA

¿Se han puesto a pensar por qué andamos por la vida tan apurados? Dormimos poco, comemos apurados, compramos apurados, manejamos apurados, estudiamos apurados, multitasking en la oficina, zapping permanente en tv, en la música del auto, etc. VAMOS A EXPLOTAR. Se nos pasa el año volando, los días volando, las horas… Es frenético el ritmo.  ¿Pero quién nos apura? Los economistas decimos que “la gente prefiere ir más rápido o más lento, es decir elegir más a corto o a largo plazo, en función de lo que llamamos  tasa de preferencia temporal. Y está comprobado que,  en promedio, la gente suele valorar más obtener recompensa ahora, aunque sea menor, que esperar un tiempo Y OBTENER ALGO MAYOR A FUTURO.  No queremos esperar… lo queremos todo ya.  Podés legir rendir para un 10, pero te querés sacar de encima la materia ya, estudiás menos y aprobás con un 7.  Podés elegir esperar una semana, comparar precios y modelos, y comprarte el teléfono móvil nuevo … pero no… te en

LO MISMO PERO DIFERENTE: EL EFECTO ENMARQUE

El efecto enmarque es uno de los tantos sesgos cognitivos de nuestra mente, humana y poco racional, en el que el cerebro toma decisiones sobre determinada información según cómo se le presenta la misma. Dicho efecto se usa a menudo en el marketing para influir en los responsables de las decisiones y en las compras, aprovechando la tendencia de las personas a ver la misma información, pero responder a ella de diferentes maneras, dependiendo de si una opción específica se presenta en un marco positivo o en un marco negativo.  ¿Cuál de estos productos elegiría: uno presentado como con 95% de efectividad, o el mismo con un 5% de falla? La mayoría de las personas es más probable que elija la primera opción, aunque las dos opciones sean idénticas. El modelo económico estándar predice que las personas siempre tomarán la misma decisión si se les muestran los mismos resultados, al maximizar la utilidad esperada. En su innovador estudio de 1979, Amos Tversky y Daniel Kahnemann, ambos po