Antes buscábamos a Google. Ahora Google nos busca a nosotros.
Esa afirmación sintetiza un cambio que se fraguó hace 20 años en las oficinas de Google, cuando la tecnológica buscaba un modelo económico rentable para hacer crecer su negocio sin tener que vender los resultados de búsqueda (y evitar que internet fuera de pago).
Lo logró gracias a una lucrativa fórmula que cambiaría para siempre la naturaleza del negocio y que permitiría, por primera vez en la historia, predecir (y modificar)el comportamiento del consumidor a través de un algoritmo de "caja negra" (una suerte de maquinaria "invisible").
Ese sistema sentaría los cimientos de lo que la economista y filósofa Shoshana Zuboff* ha llamado el "capitalismo de la vigilancia", una forma de capitalismo "sin precedentes" que predice las acciones de los internautas en el mundo real con el único propósito de beneficiar a las empresas. Las experiencias de los usuarios se convierten así en materias primas que permiten crear datos para adelantarse a comportamientos futuros.
Zuboff fue una de las primeras mujeres en obtener una cátedra subvencionada en la Harvard Business School y lleva años investigando cómo las tecnologías están transformando el mundo en que vivimos.
Su libro más reciente, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power ("La era del capitalismo de la vigilancia: la lucha por un futuro humano en la nueva frontera del poder", 2019), un extenso tomo de 690 páginas, es el intento más ambicioso hasta la fecha de reflejar los efectos de la digitalización en nuestras vidas y en la sociedad.
La economista asegura que el capitalismo de la vigilancia es "un sistema global que amenaza a la naturaleza humana" y que el precio que pagaremos por ello -si no lo frenamos a tiempo- es renunciar a nuestra propia libertad.
A continuación, les mostramos un extracto de una extensa conversación que BBC Mundo mantuvo con ella.
Dice en su libro que el capitalismo de la vigilancia está amenazando nuestro presente y pretende dominar nuestro futuro. ¿En qué consiste exactamente esta nueva forma de capitalismo y en qué se diferencia de la economía de mercado?
El capitalismo de la vigilancia diverge en muchos aspectos de la historia de la economía de mercado, pero en gran medida sigue su patrón tradicional. Ese patrón, tal y como lo han descrito ampliamente los historiadores, es que el capitalismo evoluciona al reclamar cosas que residen fuera del mercado para traerlas a su dinámica y transformarlas en comodities (productos y servicios que la gente necesita) que puedan comprarse y venderse.
El capitalismo industrial evolucionó incluyendo la naturaleza en esa dinámica de mercado para convertirla en una mercancía. Lo mismo ocurre con la idea de trabajo; las actividades de la gente en sus casas, en sus jardines, en sus campos, fueron reclamadas por la dinámica de mercado y reconvertidas en mano de obra asalariada que pudiera venderse y producirse.
Pero en el capitalismo de la vigilancia se produce un giro oscuro e inesperado, pues reclama experiencias humanas privadas -que residen en nuestros cuerpos, en nuestras casas, en nuestras ciudades, en nuestra vida diaria- para convertirlas en datos de comportamiento e integrarlas al mercado.
La finalidad es combinar esos datos con la computación para hacer predicciones de comportamientos humanos futuros. Es lo que yo llamo productos de predicción. Y se venden a clientes comerciales en mercados que comercian exclusivamente con esos comportamientos humanos futuros.
Usted asegura que ese sistema económico lleva años instalándose en nuestras vidas. ¿Cómo nació el mercado de las predicciones humanas?
Fuimos expuestos por primera vez a esta nueva lógica de mercado en el contexto de la publicidad personalizada.
Esa lógica fue inventada por Google durante la crisis de las "puntocom" [una inmensa burbuja especulativa entre 1998 y 2001, cuando las empresas de internet incrementaron rápidamente su valor en bolsa, que terminó en una caída estrepitosa]. Google vendió a sus anunciantes la predicción que salió de su "caja negra", combinada con su acceso exclusivo a datos computacionales.
Qué son los algoritmos "de caja negra" y por qué se han convertido en un misterio urgente por resolver
Cómo las marcas te espían por internet para enviarte publicidad personalizada
Pero pensamos: "¡Ah, Esto es simplemente publicidad! No es nada más que un producto de la tecnología digital para crear anuncios en línea". Eso apartó nuestra atención sobre lo que estaba ocurriendo realmente, que era el hecho de que Google había encontrado una fórmula para predecir comportamientos humanos.
Shoshana Zuboff
Esos anunciantes ya no iban a colocar sus anuncios en medios en los que veían reflejados sus valores de marca. Habían dejado a un lado toda esa lógica por completo.
Al principio fue muy difícil para las empresas porque Google quería ofrecerles ese producto de predicciones sin decirles en qué consistía, y las empresas querían saber cómo funcionaba. Google les dijo que si ponían dinero, ganarían. Sucumbieron a ello y ganaron mucho dinero... y Google también.
¿Por qué nos costó tanto percibirlo? Podría decirse que pecamos de ingenuos...
Sí, fuimos un poco ingenuos. Y lo fuimos por un gran número de razones de las que podríamos hablar. Pero realmente no discernimos esta lógica en su esencia porque era una lógica sin precedentes completamente nueva para la que no teníamos categorías ni hipótesis.
Ahora la entendemos como una producción en masa, que era una lógica económica en el contexto de la producción del Modelo T (el primer modelo de Ford que salió de la línea de producción).
Pero nadie diría que la producción de masas solo fue relevante para el Modelo T. Se extendió a través del siglo para reorganizar la fabricación de todo tipo de productos y servicios. Todo fue reordenado bajo la lógica de la producción de masas, desde hospitales hasta colegios y empresas.
Ahora estamos viendo lo mismo con el capitalismo de la vigilancia.
Entonces, ¿es correcto decir que el capitalismo de la vigilancia se extiende más allá de internet?
Sí, se está propagando. Su lógica se está aplicando a muchos otros contextos económicos.
Inventado en el contexto de la publicidad en línea personalizada, el capitalismo de la vigilancia se propagó rápidamente a Facebook , pero después se ha trasladado a otras empresas tecnológicas y, finalmente, a la economía "normal", integrándose en industrias lejanas a Silicon Valley, desde seguros hasta salud, finanzas o educación.
Está presente en cada producto que comienza con la palabra "smart" (inteligente) y en cada servicio que incluye la palabra "personalizado".
5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás tú no sabías
Y ahora, para cerrar el círculo completo, también lo vemos en el sector automovilístico. El CEO de Ford Motor dijo que extraerá datos a partir de las experiencias de unas 100 millones de personas que conducen sus vehículos, y los combinará con los que ya tiene la empresa. Es otro capitalista de la vigilancia.
Ha comparado la expansión de los capitalistas de la vigilancia con la de los conquistadores españoles.
Esa afirmación sintetiza un cambio que se fraguó hace 20 años en las oficinas de Google, cuando la tecnológica buscaba un modelo económico rentable para hacer crecer su negocio sin tener que vender los resultados de búsqueda (y evitar que internet fuera de pago).
Lo logró gracias a una lucrativa fórmula que cambiaría para siempre la naturaleza del negocio y que permitiría, por primera vez en la historia, predecir (y modificar)el comportamiento del consumidor a través de un algoritmo de "caja negra" (una suerte de maquinaria "invisible").
Ese sistema sentaría los cimientos de lo que la economista y filósofa Shoshana Zuboff* ha llamado el "capitalismo de la vigilancia", una forma de capitalismo "sin precedentes" que predice las acciones de los internautas en el mundo real con el único propósito de beneficiar a las empresas. Las experiencias de los usuarios se convierten así en materias primas que permiten crear datos para adelantarse a comportamientos futuros.
Zuboff fue una de las primeras mujeres en obtener una cátedra subvencionada en la Harvard Business School y lleva años investigando cómo las tecnologías están transformando el mundo en que vivimos.
Su libro más reciente, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power ("La era del capitalismo de la vigilancia: la lucha por un futuro humano en la nueva frontera del poder", 2019), un extenso tomo de 690 páginas, es el intento más ambicioso hasta la fecha de reflejar los efectos de la digitalización en nuestras vidas y en la sociedad.
La economista asegura que el capitalismo de la vigilancia es "un sistema global que amenaza a la naturaleza humana" y que el precio que pagaremos por ello -si no lo frenamos a tiempo- es renunciar a nuestra propia libertad.
A continuación, les mostramos un extracto de una extensa conversación que BBC Mundo mantuvo con ella.
Dice en su libro que el capitalismo de la vigilancia está amenazando nuestro presente y pretende dominar nuestro futuro. ¿En qué consiste exactamente esta nueva forma de capitalismo y en qué se diferencia de la economía de mercado?
El capitalismo de la vigilancia diverge en muchos aspectos de la historia de la economía de mercado, pero en gran medida sigue su patrón tradicional. Ese patrón, tal y como lo han descrito ampliamente los historiadores, es que el capitalismo evoluciona al reclamar cosas que residen fuera del mercado para traerlas a su dinámica y transformarlas en comodities (productos y servicios que la gente necesita) que puedan comprarse y venderse.
El capitalismo industrial evolucionó incluyendo la naturaleza en esa dinámica de mercado para convertirla en una mercancía. Lo mismo ocurre con la idea de trabajo; las actividades de la gente en sus casas, en sus jardines, en sus campos, fueron reclamadas por la dinámica de mercado y reconvertidas en mano de obra asalariada que pudiera venderse y producirse.
Pero en el capitalismo de la vigilancia se produce un giro oscuro e inesperado, pues reclama experiencias humanas privadas -que residen en nuestros cuerpos, en nuestras casas, en nuestras ciudades, en nuestra vida diaria- para convertirlas en datos de comportamiento e integrarlas al mercado.
La finalidad es combinar esos datos con la computación para hacer predicciones de comportamientos humanos futuros. Es lo que yo llamo productos de predicción. Y se venden a clientes comerciales en mercados que comercian exclusivamente con esos comportamientos humanos futuros.
Usted asegura que ese sistema económico lleva años instalándose en nuestras vidas. ¿Cómo nació el mercado de las predicciones humanas?
Fuimos expuestos por primera vez a esta nueva lógica de mercado en el contexto de la publicidad personalizada.
Esa lógica fue inventada por Google durante la crisis de las "puntocom" [una inmensa burbuja especulativa entre 1998 y 2001, cuando las empresas de internet incrementaron rápidamente su valor en bolsa, que terminó en una caída estrepitosa]. Google vendió a sus anunciantes la predicción que salió de su "caja negra", combinada con su acceso exclusivo a datos computacionales.
Qué son los algoritmos "de caja negra" y por qué se han convertido en un misterio urgente por resolver
Cómo las marcas te espían por internet para enviarte publicidad personalizada
Pero pensamos: "¡Ah, Esto es simplemente publicidad! No es nada más que un producto de la tecnología digital para crear anuncios en línea". Eso apartó nuestra atención sobre lo que estaba ocurriendo realmente, que era el hecho de que Google había encontrado una fórmula para predecir comportamientos humanos.
Shoshana Zuboff
Esos anunciantes ya no iban a colocar sus anuncios en medios en los que veían reflejados sus valores de marca. Habían dejado a un lado toda esa lógica por completo.
Al principio fue muy difícil para las empresas porque Google quería ofrecerles ese producto de predicciones sin decirles en qué consistía, y las empresas querían saber cómo funcionaba. Google les dijo que si ponían dinero, ganarían. Sucumbieron a ello y ganaron mucho dinero... y Google también.
¿Por qué nos costó tanto percibirlo? Podría decirse que pecamos de ingenuos...
Sí, fuimos un poco ingenuos. Y lo fuimos por un gran número de razones de las que podríamos hablar. Pero realmente no discernimos esta lógica en su esencia porque era una lógica sin precedentes completamente nueva para la que no teníamos categorías ni hipótesis.
Ahora la entendemos como una producción en masa, que era una lógica económica en el contexto de la producción del Modelo T (el primer modelo de Ford que salió de la línea de producción).
Pero nadie diría que la producción de masas solo fue relevante para el Modelo T. Se extendió a través del siglo para reorganizar la fabricación de todo tipo de productos y servicios. Todo fue reordenado bajo la lógica de la producción de masas, desde hospitales hasta colegios y empresas.
Ahora estamos viendo lo mismo con el capitalismo de la vigilancia.
Entonces, ¿es correcto decir que el capitalismo de la vigilancia se extiende más allá de internet?
Sí, se está propagando. Su lógica se está aplicando a muchos otros contextos económicos.
Inventado en el contexto de la publicidad en línea personalizada, el capitalismo de la vigilancia se propagó rápidamente a Facebook , pero después se ha trasladado a otras empresas tecnológicas y, finalmente, a la economía "normal", integrándose en industrias lejanas a Silicon Valley, desde seguros hasta salud, finanzas o educación.
Está presente en cada producto que comienza con la palabra "smart" (inteligente) y en cada servicio que incluye la palabra "personalizado".
5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás tú no sabías
Y ahora, para cerrar el círculo completo, también lo vemos en el sector automovilístico. El CEO de Ford Motor dijo que extraerá datos a partir de las experiencias de unas 100 millones de personas que conducen sus vehículos, y los combinará con los que ya tiene la empresa. Es otro capitalista de la vigilancia.
Ha comparado la expansión de los capitalistas de la vigilancia con la de los conquistadores españoles.
¿En qué se parece Google a Cristóbal Colón?
Las atrocidades de Colón y sus conquistadores se destacan en la historia de la humanidad por sus enormes injusticias y violencia. No los equiparo con Google en ese sentido. Pero me gustaría subrayar la idea de cómo legitimizaron su poder.
La tecnología digital no equivale al capitalismo de la vigilancia"
Me interesan especialmente dos cosas. La primera es que los españoles aparecieron con sus barcos y con sus propias costumbres, apariencia y lenguaje. Eso, para mí, es la esencia de algo sin precedentes porque quienes vieron esos barcos y a esos conquistadores nunca antes había visto algo parecido y no podían comprender lo que era. No podían anticipar la amenaza y el peligro de esa gente que llegó de repente a sus costas.
La violencia que sufrimos nosotros ahora es una violencia abstracta y funciona de manera muy distinta. Sin embargo, sus mecanismos no tienen precedentes y no podemos reconocerlos.
La segunda es que los reyes españoles y el Papa buscaron legitimar esa conquista unilateral con un flamante texto, el requerimiento, en el que establecían que a partir de ese momento poseían ese lugar y esos esclavos. Los soldados llegaban al pueblo y lo leían en español. Por supuesto, nadie lo entendía. Era una autoproclamación unilateral.
Eso es comparable a la idea de cómo, unilateralmente y secretamente, a través de herramientas que son formalmente diseñadas y de un lenguaje que no entendemos, los capitalistas de la vigilancia llaman a los usuarios "ignorantes" de esta operación y convierten las experiencias humanas privadas en datos de comportamiento sin ningún impedimento.
Pero los tiempos han cambiado. ¿Cuál es la reacción de la gente cuando habla sobre esta cuestión? ¿Le da la sensación de que hay cierto escepticismo? ¿O tal vez resignación?
He hablado con distintos grupos de personas de diferentes países y no he percibido escepticismo en absoluto. Al contrario, siempre obtengo la misma reacción: alivio. Me dicen: "Sabía que estaba ocurriendo algo terrible, pero no podía comprenderlo". Algunos hablan de miedo y ansiedad.
Pero estoy de acuerdo contigo en que hay cierta resignación porque ha habido una profunda tendencia a poner la otra mejilla como mecanismo de defensa. Nos sentimos indefensos porque nos han dicho que es la consecuencia inevitable de cómo funcionan las tecnologías digitales.
Sabemos que plataformas que usamos a diario se han convertido en canales de suministro de datos de comportamiento, pero sentimos que no tenemos elección. Y eso se antepone a la intolerabilidad e ilegitimidad de esta situación.
Activamos ese mecanismo de defensa porque sentimos que tenemos que hacerlo, pero ahí es donde yo trato de marcar el límite. Comprendo por qué hemos actuado así, pero esto es intolerable. Es una elección ilegítima que los ciudadanos del siglo XXI no deberíamos tener que tomar.
La tecnología digital no equivale al capitalismo de la vigilancia. Y ese error de categoría ha sido propagando al público sistemáticamente por los capitalistas de la vigilancia. Ellos quieren que creamos que así es como funciona la tecnología.
Hay una cita de Eric Schmidt (director ejecutivo de Google de 2001 a 2011) en una entrevista de 2009 muy breve, pero que para mí lo dice todo: "Si estas haciendo algo que no quieres que los demás sepan, tal vez, en primer lugar, no deberías hacerlo". Apenas un par de frases después dijo algo que me parece todavía más revelador: "Los motores de búsqueda retienen información".
Eso resume toda la ideología que ha sido impuesta al público, la idea de que es la tecnología la que lo hace. Cuando, en realidad, sabemos que los motores de búsqueda no retienen información; son los capitalistas de la vigilancia quienes lo hacen.
Es vital para nosotros diferenciar ese error de categoría.
Podemos imaginar fácilmente las tecnologías digitales sin capitalismo de la vigilancia, pero no somos capaces de concebir el capitalismo de la vigilancia sin las tecnologías digitales.
El segundo gran error es pensar que podemos reducir el capitalismo de la vigilancia a malas prácticas de gestión o a una compañía en concreto, como Facebook o Google. Pero su lógica económica no se limita a una o dos empresas. Se ha extendido a todos los ámbitos económicos.
Tiene sentido que tratemos de regular Facebook. Y eso es importante. Pero tenemos que ser conscientes de que ese es solo el primer paso para regular el capitalismo de la vigilancia. Facebook es uno de los actores más pioneros y poderosos del capitalismo de la vigilancia, pero no es el único.
Sin embargo, Mark Zuckerberg y otros muchos emprendedores de Silicon Valley son percibidos como triunfadores.
Es un triunfo del capitalismo de la vigilancia. Estábamos tan convencidos de que el mundo interconectado nos daría más libertad, y hemos negado hasta tal punto el empoderamiento de las instituciones públicas y comerciales, que no podíamos verlo. Cuando crees algo con mucha fuerza, ver datos que lo contradicen una y otra vez no basta para cambiar esa creencia.
Pero eso no dura para siempre.
Tampoco se trata de que esas personas sean malvadas. Esto no tiene que ver con individuos, sino con una lógica económica que es clara para ellos, pero opaca para nosotros. Es la estructura fundamental que explica cómo esas empresas transforman las inversiones en capital.
No se trata de un ajuste económico o de un cambio de personal o de políticas. Hace falta algo más.
¿Y cree que es posible cambiar esa lógica económica?
Yo soy optimista al respecto. Nuestras sociedades se han enfrentado a otros retos y han logrado movilizar las instituciones para obligar al capitalismo a alinearse con el interés general de la democracia y de la soberanía individual. No existen soluciones perfectas, nada de esto lo es. Y no hago apología de los excesos del capitalismo. Pero creo que debemos activar los organismos de nuestras democracias a favor de un futuro digital distinto.
El primer paso es cambiar la opinión pública para que se conozca la seriedad del problema y para que la gente demande un cambio en las instituciones que permita crear toda una nueva generación de leyes.
Como sociedades, tenemos que preguntarnos lo siguiente: ¿queremos vivir en un mundo capitalista en el que quienes nos dominan acumulan riqueza vendiendo comportamientos humanos? Porque ese negocio, la venta de comportamientos futuros, implica consecuencias predecibles para la autonomía humana y para los principios democráticos.
No se trata de actuar como individuos, sino como sociedad.
Las atrocidades de Colón y sus conquistadores se destacan en la historia de la humanidad por sus enormes injusticias y violencia. No los equiparo con Google en ese sentido. Pero me gustaría subrayar la idea de cómo legitimizaron su poder.
La tecnología digital no equivale al capitalismo de la vigilancia"
Me interesan especialmente dos cosas. La primera es que los españoles aparecieron con sus barcos y con sus propias costumbres, apariencia y lenguaje. Eso, para mí, es la esencia de algo sin precedentes porque quienes vieron esos barcos y a esos conquistadores nunca antes había visto algo parecido y no podían comprender lo que era. No podían anticipar la amenaza y el peligro de esa gente que llegó de repente a sus costas.
La violencia que sufrimos nosotros ahora es una violencia abstracta y funciona de manera muy distinta. Sin embargo, sus mecanismos no tienen precedentes y no podemos reconocerlos.
La segunda es que los reyes españoles y el Papa buscaron legitimar esa conquista unilateral con un flamante texto, el requerimiento, en el que establecían que a partir de ese momento poseían ese lugar y esos esclavos. Los soldados llegaban al pueblo y lo leían en español. Por supuesto, nadie lo entendía. Era una autoproclamación unilateral.
Eso es comparable a la idea de cómo, unilateralmente y secretamente, a través de herramientas que son formalmente diseñadas y de un lenguaje que no entendemos, los capitalistas de la vigilancia llaman a los usuarios "ignorantes" de esta operación y convierten las experiencias humanas privadas en datos de comportamiento sin ningún impedimento.
Pero los tiempos han cambiado. ¿Cuál es la reacción de la gente cuando habla sobre esta cuestión? ¿Le da la sensación de que hay cierto escepticismo? ¿O tal vez resignación?
He hablado con distintos grupos de personas de diferentes países y no he percibido escepticismo en absoluto. Al contrario, siempre obtengo la misma reacción: alivio. Me dicen: "Sabía que estaba ocurriendo algo terrible, pero no podía comprenderlo". Algunos hablan de miedo y ansiedad.
Pero estoy de acuerdo contigo en que hay cierta resignación porque ha habido una profunda tendencia a poner la otra mejilla como mecanismo de defensa. Nos sentimos indefensos porque nos han dicho que es la consecuencia inevitable de cómo funcionan las tecnologías digitales.
Sabemos que plataformas que usamos a diario se han convertido en canales de suministro de datos de comportamiento, pero sentimos que no tenemos elección. Y eso se antepone a la intolerabilidad e ilegitimidad de esta situación.
Activamos ese mecanismo de defensa porque sentimos que tenemos que hacerlo, pero ahí es donde yo trato de marcar el límite. Comprendo por qué hemos actuado así, pero esto es intolerable. Es una elección ilegítima que los ciudadanos del siglo XXI no deberíamos tener que tomar.
La tecnología digital no equivale al capitalismo de la vigilancia. Y ese error de categoría ha sido propagando al público sistemáticamente por los capitalistas de la vigilancia. Ellos quieren que creamos que así es como funciona la tecnología.
Hay una cita de Eric Schmidt (director ejecutivo de Google de 2001 a 2011) en una entrevista de 2009 muy breve, pero que para mí lo dice todo: "Si estas haciendo algo que no quieres que los demás sepan, tal vez, en primer lugar, no deberías hacerlo". Apenas un par de frases después dijo algo que me parece todavía más revelador: "Los motores de búsqueda retienen información".
Eso resume toda la ideología que ha sido impuesta al público, la idea de que es la tecnología la que lo hace. Cuando, en realidad, sabemos que los motores de búsqueda no retienen información; son los capitalistas de la vigilancia quienes lo hacen.
Es vital para nosotros diferenciar ese error de categoría.
Podemos imaginar fácilmente las tecnologías digitales sin capitalismo de la vigilancia, pero no somos capaces de concebir el capitalismo de la vigilancia sin las tecnologías digitales.
El segundo gran error es pensar que podemos reducir el capitalismo de la vigilancia a malas prácticas de gestión o a una compañía en concreto, como Facebook o Google. Pero su lógica económica no se limita a una o dos empresas. Se ha extendido a todos los ámbitos económicos.
Tiene sentido que tratemos de regular Facebook. Y eso es importante. Pero tenemos que ser conscientes de que ese es solo el primer paso para regular el capitalismo de la vigilancia. Facebook es uno de los actores más pioneros y poderosos del capitalismo de la vigilancia, pero no es el único.
Sin embargo, Mark Zuckerberg y otros muchos emprendedores de Silicon Valley son percibidos como triunfadores.
Es un triunfo del capitalismo de la vigilancia. Estábamos tan convencidos de que el mundo interconectado nos daría más libertad, y hemos negado hasta tal punto el empoderamiento de las instituciones públicas y comerciales, que no podíamos verlo. Cuando crees algo con mucha fuerza, ver datos que lo contradicen una y otra vez no basta para cambiar esa creencia.
Pero eso no dura para siempre.
Tampoco se trata de que esas personas sean malvadas. Esto no tiene que ver con individuos, sino con una lógica económica que es clara para ellos, pero opaca para nosotros. Es la estructura fundamental que explica cómo esas empresas transforman las inversiones en capital.
No se trata de un ajuste económico o de un cambio de personal o de políticas. Hace falta algo más.
¿Y cree que es posible cambiar esa lógica económica?
Yo soy optimista al respecto. Nuestras sociedades se han enfrentado a otros retos y han logrado movilizar las instituciones para obligar al capitalismo a alinearse con el interés general de la democracia y de la soberanía individual. No existen soluciones perfectas, nada de esto lo es. Y no hago apología de los excesos del capitalismo. Pero creo que debemos activar los organismos de nuestras democracias a favor de un futuro digital distinto.
El primer paso es cambiar la opinión pública para que se conozca la seriedad del problema y para que la gente demande un cambio en las instituciones que permita crear toda una nueva generación de leyes.
Como sociedades, tenemos que preguntarnos lo siguiente: ¿queremos vivir en un mundo capitalista en el que quienes nos dominan acumulan riqueza vendiendo comportamientos humanos? Porque ese negocio, la venta de comportamientos futuros, implica consecuencias predecibles para la autonomía humana y para los principios democráticos.
No se trata de actuar como individuos, sino como sociedad.
*Shoshana Zuboff es profesora emérita de la Harvard Business School. Su libro The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power ("La era del capitalismo de la vigilancia: la lucha por un futuro humano en la nueva frontera del poder") fue publicado en enero de 2019 y ha recibido críticas positivas de medios internacionales como TheTimes, The ObserveryThe Financial Times. Este último la describió como "la verdadera profeta de la era de la información".
Fuente BBC MUNDO