Éric Sadin contra los evangelizadores digitales

Es el momento de la “duda nietzscheana”, plantea el filósofo francés a propósito del avance de la automatización del trabajo, la educación y el comercio. A su juicio, el mayor impacto de la inteligencia artificial en el corto plazo será en el campo de la medicina y el mayor dilema de nuestra sociedad será ético: cómo se configurarán los lazos humanos y quién tomará las decisiones, las máquinas o los individuos.

por Juan Íñigo Ibáñez I 24 Noviembre 2020

Compartir:

El pasado 8 de septiembre, The Guardian publicó por primera vez un ensayo íntegramente escrito por un generador de lenguaje basado en inteligencia artificial. Las primeras palabras del algoritmo GPT-3 fueron: “No me tengan miedo (…) la inteligencia artificial no destruirá a los humanosCréame”.

El artículo morigeró las inquietudes de muchos respecto a la temida capacidad de la inteligencia artificial –una tecnología que, por primera vez en la historia, es capaz de aprender por sí misma y llevar a cabo acciones impredecibles incluso para sus propios creadores–, de rebelarse y tomar decisiones que afectarían a los seres humanos.

Sin embargo, lo que más le preocupa al filósofo francés Éric Sadin (París, 1972) no es el advenimiento de un escenario tecnodistópico en que las máquinas se subleven de forma violenta contra las personas. Lo que le inquieta es algo, en apariencia, mucho más imperceptible: que la técnica se inmiscuya, de manera sutil y vaporosa, en nuestra capacidad de auto determinarnos y tomar decisiones.

A su juicio, este escenario sería cada vez más una realidad. En La Inteligencia Artificial o el desafío del siglo (Caja Negra, 2020), el autor describe cómo, en un mundo en que la presencia de micrófonos, sensores y dispositivos ultraconectados es cada vez más omnipresente, la tecnología estaría adquiriendo un creciente “poder de decisión” sobre nuestras vidas, revelándonos dimensiones “que antes eran invisibles a nuestra propia conciencia” e instaurando “un nuevo régimen de verdad”.

A contracorriente de los dictámenes “embellecedores” que constata en los “evangelizadores” de lo digital, desde hace más de una década Sadín se ha concentrado en construir, a través de diversos ensayos (“Vigilancia global, “La humanidad aumentada”, “La silicolonización del mundo), un contradiscurso crítico a las lógicas “utilitaristas” de la “industria de lo numérico”. Mientras algunos se rinden al prometeico avance del Big data y de la inteligencia artificial, el ensayista ha optado por la “duda nietzscheana”, cuestionando cómo estas tecnologías amenazarían el saber experto, o cómo la extensión de las lógicas algorítmicas reducirían, con su velocidad maquínica, la empatía entre seres humanos instaurando el germen para un “antihumanismo radical”.

 

¿Con qué tipo de funcionalidades se desarrollan estas tecnologías?
Una primera funcionalidad –relativa a lo que yo llamo el “nivel incitativo”– es establecer, a través de la sugerencia continua, una mercantilización integral de la vida, con dispositivos ultraconectados, con micrófonos que se activan en cualquier momento y que nos sugieren ofertas de productos que supuestamente se adaptarían a nuestras necesidades y gustos. La segunda –el “nivel imperativo”- establece una organización de la sociedad cada vez más optimizada. Por ejemplo, en el mundo del trabajo, todos estos protocolos enmarcan cada vez más los comportamientos personales de los trabajadores.

 

Lo que me preocupa es cómo se ha ido expandiendo de manera insidiosa una nueva forma de control social. Me refiero al teletrabajo, algo que se nos ha impuesto como una necesidad casi vital y sin haber pasado por ninguna concertación previa.

 

¿Qué representa el “poder conminatorio” de la técnica que describe en su libro?
Hemos pasado ya un umbral en que estas tecnologías –que no son creadas ex nihilo sino que responden a visiones de mundo y a intereses creados con la voluntad de optimizar situaciones y hacer actuar a las personas de una determinada manera y no de otra– están produciendo una presión cada vez más amplificada sobre la capacidad de decisión humana.

 

¿No somos libres de elegir utilizar estas tecnologías?
Cuando estamos frente a la información que nos ofrecen nuestras pantallas, uno puede hacer lo que quiera. Cualquiera, tú o yo, podemos hacer lo que queramos. Pero cuando pasamos el umbral en el que estos interfaces tienen la misión de dictar la acción humana, ese ya es otro escenario. Por supuesto, los individuos son sometidos a la seducción, al confort de las facilidades que estas tecnologías ofrecen. Pero, ¿con qué objetivo se aplica esa seducción? No quiero sonar moralista, pero la industria digital juega con esa seducción y, a través de ella, capitaliza y consolida su propio poder de enunciar la verdad. Al recomendar, a través de parlantes conectados, ir a un determinado cine o a tal restaurant, están jugando con una seducción en la que nos encontramos cada vez más inmersos. Hemos pasado un punto de quiebre en el que estos protocolos tienen como misión dictar la acción humana.

 

¿Podría dar un ejemplo?
El que posiblemente tenga más consecuencias es el diagnóstico médico automatizado. Estamos asistiendo a una privatización sin precedentes de la medicina a nivel mundial. Nos dicen que la inteligencia artificial produciría una “revolución” y haría avanzar como nunca el campo de la medicina. Y yo me pregunto: ¿quién dice eso?, ¿quién está desarrollando estos instrumentos?, ¿quiénes son los que están invirtiendo en ellos? No es el mundo médico. Es el mundo de la industria de los fármacos. ¿Y en qué se basa la industria para desarrollar esos interfaces? En que los médicos, en tanto seres humanos, tienen defectos. La idea que hay detrás es que los médicos se equivocan constantemente. Y todo el mundo toma el “milagro” de la inteligencia artificial aplicada a la medicina como si fuera una verdad revelada. ¡Es increíble que nadie lo cuestione! A través de diagnósticos automatizados, nos dicen, estos instrumentos encontrarían patologías que los médicos no ven. Pero lo que la industria quiere hacer es vender sistemas a todos los hospitales, los que, además de valer una fortuna, desplazarán el saber del médico, como si su conocimiento no sirviera de nada. Es lo contrario de lo que ha revelado la crisis del covid-19: en vez de sistemas de diagnósticos automatizados, lo que hace falta en nuestros hospitales son buenos recursos humanos y cuidados de calidad, y que esos servicios sean bien pagados.

 

¿Y qué rol juegan los gigantes de la economía digital?
Google no tiene ninguna competencia en el campo de la medicina. Apple tampoco. Ambos conglomerados buscan convertirse, a través de sensores que todos nosotros llevaremos, en los intermediarios que nos darán diagnósticos a través de interfaces automatizadas que nos sugerirán comprar productos o que nos darán prescripciones médicas. Ese es el verdadero cambio de paradigma que opera en la medicina histórica, una disciplina fundada sobre la independencia y la integridad del médico, sobre el juramento hipocrático. La industria de lo digital busca imponerse y, para ello, quiere partir conquistando de manera casi integral el mercado de la salud. Los ciudadanos, o los que tengan la capacidad de hacerlo, deben ejercer de fiscalizadores. Es imperativo que, más allá de todos los discursos embellecedores, sepamos imponer límites a este movimiento.

 

Algunos creen que, con la Inteligencia Artificial, el verdadero problema radicaría en la falta de un marco regulatorio. En 2018, la Unión Europea comenzó a implementar una nueva normativa legal –considerada por muchos como pionera– que obliga a las grandes empresas a proteger los datos y la privacidad de los usuarios. ¿Qué opina de ese reglamento?
En la ley, tal como se escribe en la mayor parte de los parlamentos, generalmente el legislador ya se sometió previamente al dogma neoliberal en nombre del crecimiento. Y mucho más que fijarse una meta para regular, en realidad lo que está haciendo es facilitar la economía digital. En estos últimos cinco años, ha habido en el mundo una cantidad enorme de leyes cuyo principal objetivo es ese. En Francia, por ejemplo, se creó una ley a la que llamaron la “república numérica”, la cual, nos decían, iba a preservar los intereses de los ciudadanos y todas las mentiras de buenas intenciones que ya conocemos. En realidad fue votada para apoyar a las start up y la economía digital. Corresponde a lo que se conoce como ordoliberalismo, leyes que se escriben para apoyar y desarrollar el liberalismo económico.

 

Más allá de erigir sistemas automatizados que nos convertirían a todos en pescadores y en pintores de domingo, el verdadero desafío político consiste en poder instalar, a través de los lazos humanos, efectos de solidaridad en torno a la inventiva humana

 

Entonces, ¿no sería una solución que los ciudadanos presionen para imponer más restricciones?
No, porque el marco regulatorio del 2018 en Europa no es sobre inteligencia artificial. Es sobre la pretendida protección de los datos personales de los usuarios. No se trata del mismo objetivo ni del mismo desafío. Reglamentar la inteligencia artificial implicaría regular una capacidad de experticia de sugerencia automática. ¿Cómo una legislación podría hacer que se mercantilice menos, o impedir que se produzcan sistemas de optimización susceptibles de ser aplicados sobre diversos colectivos humanos? Ni siquiera es una relación conceptual posible, ya que la legislación se basa en barreras, no en corregir la naturaleza de las cosas. Lo que preocupa a todo el mundo es la seguridad de sus datos personales, una inquietud relativa a la vida privada que es un claro ejemplo de la época individualista en la que vivimos. Pero estas son cuestiones políticas y jurídicas que nos conciernen a todos.

 

A menudo recibimos noticias del Crédito Social chino, un mecanismo de control y vigilancia que mediría la “confiabilidad” de los ciudadanos y que los castigaría o beneficiaría sobre la base de la cantidad de puntos almacenados en sus dispositivos. ¿Qué tan lejos están las democracias occidentales de implementar un sistema similar?
En el caso chino, estamos hablando de una sociedad optimizada, segura e higienista. Las herramientas las tiene el Comité Central, que es, finalmente, el gobierno chino. En las democracias liberales, o en los países que no están sometidos a dictaduras o a regímenes autoritarios, esas lógicas aún no están en funcionamiento, pero están señalando algo: que, aunque no estemos aún en esa sociedad de control global, la actividad humana está siendo orientada a través de herramientas que permitirían trazar e interpretar de forma creciente y con diferentes fines los comportamientos humanos.

 

Muchos países han caído en la tentación de fortalecer las tecnologías de vigilancia por razones sanitarias…
En un principio, todas las inquietudes relacionadas con el coronavirus estuvieron vinculadas a los sistemas de trazabilidad. Pero a mí eso no me preocupó tanto, lo que no significa que no haya que prestarle atención. Lo que me preocupa es cómo se ha ido expandiendo de manera insidiosa una nueva forma de control social. Me refiero al teletrabajo, algo que se nos ha impuesto como una necesidad casi vital y sin haber pasado por ninguna concertación previa. Simplemente se nos impuso. Con Zoom, y con toda la extensión del teletrabajo, ha operado un cambio. Hay un “antes” y un “después” puesto que vemos que se están instalando nuevos procedimientos de control y de seguimiento continuo. Como seres humanos, necesitamos ocuparnos de manera urgente de estos asuntos, y no solamente por las consecuencias sanitarias y económicas del covid-19, sino por cuestiones más específicas como el estado de la salud mental. Hablamos no solo de nuevas formas de control en línea, sino de patologías que vienen siendo inducidas por el neoliberalismo desde hace más de 50 años bajo nuevas formas de tristeza, depresión y aislamiento colectivo.

 

Algunos intelectuales de izquierda han planteado que la creciente automatización representaría una oportunidad para que amplios sectores se liberen de la alienación de ciertos empleos, ganando así más tiempo para el ocio y la recreación. ¿Opina lo mismo?
Pienso de manera opuesta. Esa idea es una ofensa para el ser humano, porque está ignorando lo que la dimensión del trabajo aporta y representa para cada uno de nosotros. No es una casualidad que, tanto la industria de lo numérico como todos los gurúes de Silicon Valley, estén a favor del ingreso mínimo. Se están destruyendo miles de empleos y, a través del teletrabajo, desaparecerán miles de empleos más. Más allá de erigir sistemas automatizados que nos convertirían a todos en pescadores y en pintores de domingo, el verdadero desafío político consiste en poder instalar, a través de los lazos humanos, efectos de solidaridad en torno a la inventiva humana; instaurar nuevas modalidades de trabajo en común que favorezcan el desarrollo de cada uno, los lazos humanos, la sociabilidad y la felicidad de construir proyectos que conduzcan a la elaboración de cosas bellas y útiles, proyectos que no dejen ni a la biosfera ni al otro de lado. Se trata, obviamente, de otro proyecto político para la humanidad.

 

Hace poco, el gobierno británico aplicó un algoritmo que calculó a partir de factores externos, como el historial del centro educativo, las calificaciones escolares que definen el ingreso a la universidad. Fue un escándalo: los resultados favorecieron de manera transversal a los estudiantes de escuelas privadas en detrimento de los de escuelas públicas. ¿Qué revela eso?
Es un excelente ejemplo de la extrema racionalización de la sociedad. Pero, ¿qué significa en los hechos? Que frente al número, frente al volumen, frente a la necesidad de hacer las cosas del modo más económico, delegamos –en función de criterios restringidos– cuestiones tan fundamentales como, por ejemplo, si un estudiante va a poder cumplir con sus sueños o no. Le estamos delegando a sistemas la capacidad de organizar las cosas a velocidades extremas de tratamiento de datos numéricos. No es una velocidad humana de apreciación, es algo totalmente diferente. Es una velocidad maquínica que nos induce a operar bajo esos mismos ritmos y que genera que criterios no definidos en sociedad tengan prioridad y releguen en el camino a muchísimas personas. Lo principal aquí es la relegación de la sensibilidad, de las relaciones interhumanas basadas en el diálogo y en la sociabilidad en común. En estos sistemas, que son anónimos y automatizados, las situaciones se resuelven por sí mismas, produciendo soluciones que finalmente impiden una cierta evolución y que generan nuevas frustraciones en capas de la sociedad a las que ya les llueve sobre mojado. Y sabemos lo que significa la frustración para los más jóvenes, pues esa frustración genera nuevas formas de aislamiento colectivo.

 

En ese escenario, ¿cuál será el principal desafío que enfrentaremos en los próximos años?
Tenemos que saber ponernos a distancia de la doxa que la industria de lo numérico nos está imponiendo. Estamos al inicio de una nueva década, un período en que se hará imperativo instaurar mecanismos de solidaridad que favorezcan el bienestar de cada uno y que permitan mantener la esperanza en los otros y en el mundo. Por eso, más que escuchar los dictados de los fundamentalistas de lo digital, como lo venimos haciendo hace 10 años –los mismos que nos prometen una mejor salud gracias a la inteligencia artificial–, debemos escuchar a los profesionales de la salud y a los profesores. Si los escuchamos ahora, quizás dejemos de soñar con ese mundo luminoso que nos prometen. Es el momento de tomar conciencia de la necesidad de reparar situaciones, de atender la experiencia de profesiones que están sufriendo, de dar dinero público donde sí se lo necesita. Es imperativo desarrollar nuevos oficios que ayuden a las personas, no ya de la tercera sino de la cuarta edad. En esta nueva década, el principal desafío será optar entre sociedades anónimas automatizadas y optimizadas versus sociedades en las que todos los seres humanos se hagan cargo y traten de atender y solucionar los sufrimientos del presente.

 

La Inteligencia Artificial o el desafío del siglo: Anatomía de un antihumanismo radical, Caja Negra, 2020, 328 páginas, $22.500.

La siliconización del mundo: La irresistible expansión del liberalismo digital, Caja Negra, 2018, 320 páginas, $21.100.

La humanidad aumentada: La administración digital del mundo, Caja Negra, 2017, 160 páginas, $15.750.

Relacionados

La historia con minúscula

por Bruno Cuneo

No tenía que ser así

por Silvia Camporesi