Skip to main content

¿Todo es tan nuevo como parece? ¿Hay mucha más tecnología aplicada en nuestra rutina de lo que imaginamos? ¿Es mala la Inteligencia Artificial? ¿Compite contra los humanos? Cargando estas y otras preguntas nos sumergimos en un viaje por el tiempo y las tecnologías, moldeados por una idea que mucho tiene que ver con el futuro que hemos visto en las películas y series de TV de las últimas décadas.

Rastreando los orígenes de la Inteligencia artificial y las formas de incorporación de tecnologías al mundo laboral, nos acercamos a la Ciudad Universitaria de Córdoba. El anfitrión, Javier Blanco: investigador, docente y dirigente gremial, surgido de las entrañas de la Facultad de Matemáticas, Astronomía y Física (FaMAF), una de las personas que más conoce de la materia en nuestra provincia.

Entrelíneas: Nos gustaría comenzar por los orígenes… para ponernos de acuerdo en ¿De qué hablamos cuando hablamos de Inteligencia Artificial?

Javier Blanco: El término inteligencia artificial va a aparecer por la década de 1950. En el año ´56, en un congreso. Pero la idea viene de Alan Turing que, en el año 50, se hace la pregunta de si pueden pensar las computadoras. La formula en una entrevista de radio, en un artículo que se llama “Computing machinery and intelligence”. Y lo que él va a ver es si se puede reproducir, a través de la programación, procesos cognitivos humanos: resolución de problemas, representación del mundo, etc. Formas en las cuales los humanos procesan información y son capaces de accionar en el mundo también.

Otra pregunta que realiza Turing en el año 47 y que, en ese momento, no tuvo mucho auge es si, en lugar de enseñar a pensar a las computadoras, se le enseña a aprender a pensar. Incluso él hablaba de “Máquinas niños” que, como los niños, son capaces de aprender a pensar a partir de un proceso que no está programado a priori. Esa idea quedó. En el año 46, también por la misma época, Warren McCulloch y Walter Pitts escriben un artículo sobre redes neuronales. Y se intentó ese camino también, pero tuvo resultados magros durante todo el siglo 20. Al punto que se lo descartó. Entonces, durante mucho tiempo se buscó hacer eso: construir máquinas, programar máquinas que piensen.

Lo que se retoma al principio del siglo 21, gracias al aumento de la capacidad de cómputo -y, sobre todo, a tarjetas gráficas, las llamadas GPU, que procesan mucho en paralelo- es en tener sistemas de aprendizaje como los que ya se pensaban entonces, pero más complejos en tamaño. Lo que hoy se conoce como deep learning -es muchas capas de neuronas que se llama-, que de alguna manera se entrenan todas, lo cual lleva mucho de cómputo y muchos datos. Es decir, a partir de esas redes alimentadas con una cantidad de datos que responden a un patrón determinado, lo que son capaces de hacer los sistemas es aprender a reconocer ese patrón. Pero no a partir de que el patrón este explícito de decir “reconozcamos una taza de café”. Entonces hay que explicar qué es una taza de café y dar criterios para que una taza de café. No funciona así. Funciona, simplemente, poniendo como input cientos de miles de tazas de café, de fotos, de lo que sean tazas de café. Y, después, de alguna manera, va adecuando al programa a reconocer esos patrones que vió. ¿Por qué lo reconoce? Nadie lo sabe. Ni siquiera el sistema, ni los programadores. Simplemente lo reconoce.

Entonces, ese tipo de reconocimiento de patrones se volvió la gran tecnología del siglo 21. Y, en ese sentido, estos programas hoy van a ser grandes clasificadores estadísticos. Van a decir cuán cercano es un patrón, que se le pone a la computadora, a los patrones entrenamiento, a los datos de entrenamiento.

Esta forma de inteligencia por supuesto que no se parece la inteligencia humana. Hay varios autores, filósofos, pensadores que intentan mostrar cómo eso no es inteligencia. Es otro tipo de forma cognitiva. Yo suscribo eso, pero a la vez también inteligencia humana es contingente. O sea, no es que la inteligencia humana sea un paradigma. Es también contingente, tiene mil problemas. Son otras formas cognitivas, otra forma de inteligencia.

Entonces, podemos pensar que hoy estamos frente a un paisaje de formas de inteligencia que interactúan en el mundo informacional, en el mundo cognitivo.

Rastreando los orígenes

Por 1950 el matemático inglés Alan Turing se hizo la pregunta acerca de si las computadoras podían pensar. Esta idea da lugar a lo que, después, se conoce como Inteligencia Artificial. E inicia un proceso de intentar replicar, programar, las formas de razonamiento humano, la forma de inferencia, la forma de representación del mundo que los humanos realizan.

Esto informó todo el desarrollo del siglo 20 de la inteligencia artificial, llamada inteligencia artificial simbólica. Pero sus resultados fueron magros.

A principios del siglo 21, a partir de grandes avances en poder de cómputo y, sobre todo, de la disponibilidad masiva de grandes cantidades de datos a partir de Internet y de otro tipo de tecnologías posteriores. Se logró entrenar sistemas que sean capaces no ya de pensar en sí mismos, sino de aprender a pensar. De aprender como un niño aprende a pensar. En la clave de una idea que ya había mencionado Turing ya en 1947 y repetido en el artículo de 1950. Esta idea de estos programas conocidos como machine learning están basados en una gran cantidad de datos, reconocer los patrones que esos datos satisfacen y poder, después, aplicar ese reconocimiento a datos nuevos.

Si bien eso da lugar a que esos datos satisfagan algún criterio implícito, ese criterio en general no puede explicitarse. Y, por lo tanto, no puede explicarse por qué esos datos satisfacen esa idea. Esta idea de clasificado es la que está en la base de todos los sistemas actuales de machine learning. Incluso aquellos que generan distinto tipo de textos o de datos, como por ejemplo generar un texto, que en realidad se entrenan junto al clasificador y el generador.

Este tipo de tecnología ha tenido resultados enormes este tiempo, siendo capaz de resolver una cantidad de problemas como, por ejemplo, jugar al ajedrez o producir cantidad de respuestas inteligentes o humanamente comprensibles de cualquier tema posible. Ese tipo de resultados parecen condicionar o parecen interpelar la noción misma de la singularidad del pensamiento humano.

Incluso las tecnologías de machine learning para mí no son, ni cerca, la última tecnología posible de inteligencia artificial, sino que habrá nuevos avances con otros formatos más interesantes. No me parece que no se trata aquí de poner a la inteligencia humana como paradigma de la inteligencia. La inteligencia humana es el resultado evolutivo de unos cientos de miles de años de evolución biológica y, como tal, tiene una cantidad de peculiaridades y falencias que no valdría la pena replicar. Creo que es una idea fundamental la idea de que hay formas de cognición que no tienen por qué ser réplica ni están inspiradas, ni detenerse en la inteligencia humana. En ese sentido, las inteligencias artificiales actuales -y las por venir- creo que son mejor pensadas como prótesis que como réplicas o como reproducciones de formas humanas de inteligencia.

Las mentes humanas siempre fueron en gran parte somática, siempre estuvieron constituidas por andamiajes externos, tanto materiales como culturales. Hoy esos andamiajes, los materiales, sobre todo, pero también son vehículo de cambios culturales, están transformando el acoplamiento humano. Algoritmo de maneras aceleradas es evolución veloz y con una aceleración positiva enorme. Me parece que implican una redefinición de una cantidad instituciones humanas también.

 

Entrelíneas: La IA irrumpe en la actualidad y algunos autores marcan una diferencia en relación a otros programas de computación… ¿Qué distingue a esta Inteligencia Artificial de otros programas que ya hemos venido utilizando en nuestra vida cotidiana? ¿Cuáles serían las claves de este nuevo modelo?

Javier: Básicamente, la principal diferencia es que en los programas computacionales el Programador o la Programadora tenía que considerar todos los casos que se ponían a funcionar y tomar decisiones explícitas para cada caso.

Estos programas en realidad se construyen a medias entre la Programación y el Entrenamiento. Y el Entrenamiento no es una explicitación. Sino, simplemente esto que te contaba: a partir de los datos van adecuando el clasificador para que reconozca esos datos. Esa adecuación no se da por una decisión de la programación. Se da por un ajuste, que se va realizando de manera no programada. Se van ajustando los pesos.

Esa manera hace que estos programas sean, en un sentido muy profundo, opacos, ¿no? Cuando un programa falla, en general, uno puede acusar a quien lo programó. Y decir “no, mirá qué pasó, arréglalo”. En este caso, no sé si es una falla, sino que es parte del propio modelo que encarnan. A veces, en ese modelo ciertos datos que tienen algunas particularidades, no son bien reconocidos.

Incluso hay gente que muestra cómo fallan. Por ejemplo, en un programa que reconoce fotos. Conociendo el programa, hay algunas técnicas para por ejemplo, mostrar que si le cambio un píxel a esta foto no lo va a reconocer. Para un humano no habría ninguna diferencia. Pero el programa va a fallar. Por supuesto que eso es, estadísticamente, muy inusual. Pero si uno mira la cosa y entiende como es el “código”, la red que queda construida, puede encontrar la falla de ese programa. Es decir, esa opacidad de los sistemas los vuelve particularmente riesgosos. En el sentido de que uno no tiene garantías de que su funcionamiento va a estar en ciertos parámetros. La garantía son garantías estadísticas y eso en muchos casos es insuficiente. Por ejemplo, un programa que se usó, que no se usa más ahora, era el Compass que era para poder determinar, elegir, decidir si una persona que estaba presa podía salir en libertad condicional. Básicamente el sistema “media” la probabilidad de reincidencia de esa persona si salía libertad condicional. Y era muy sesgada la muestra con lo cual se creó el programa. Pero, en principio, una falla ahí o un falso positivo, tiene consecuencias drásticas en la vida de la persona. O un falso negativo también. Los dos casos. Entonces, son como cosas muy, muy sensibles como para manejarse con tecnologías que tienen una cierta opacidad intrínseca.

Muchas veces discuto con algunos colegas que dicen “bueno, muchas empresas hoy se apoyan o se ocultan, detrás de esa opacidad, para no decir lo que están haciendo. Para no, no usar técnicas adecuadas de control o de calidad de estos sistemas”. Eso es cierto. Pero, a la vez, también es cierto que hay una opacidad intrínseca. O sea, no es que Google sea capaz de saber por qué la gente hace lo que hace. Por supuesto, que puede predecir muchos comportamientos, puede incidir en otros. Pero no necesariamente. No es que hay alguien que puede saber por qué eso está ocurriendo exactamente. Hay cierto conocimiento. Pero no es que, viendo el programa, uno puede predecir exactamente qué va a pasar ahí.

Entrelíneas: Y ahí tocas un tema clave: si existe como una escala de valores en estos programas. Llevémoslo a la vida cotidiana y a la práctica. Con la puesta en marcha de estos sistemas… ¿Existe, digamos, esta opacidad tiene que ver con los valores de quienes programan? ¿hay una contingencia, una decisión?

Javier: Las dos cosas. Es decir, hay una decisión. Y hay muchas decisiones que tienen que ver con que un dato, por ejemplo. Parecería que los datos son algo que existe y los datos son algo relacional. Algo es un dato, porque hay un programa para el cual es un dato, no porque eso sea este paquete.

Veamos datos de este paquete de Yerba… ¿Qué es un dato de esto? El color, el sabor del producto, la cantidad, su mera existencia. Entonces elegir qué es un dato o elegir qué datos son los que se usan, tiene consecuencias. Los programas de machine learning suelen enfatizar u olvidar algunos tipos de valores que están implícitos y que provienen de cómo elegiste cuáles son los datos. Después, esos datos tienen implícitos que, muchas veces, son o son conocidos a priori. Y se pueden ver a posteriori, en el funcionamiento del sistema. O también el tipo de algoritmo que se use para entrenamiento.

Por ejemplo, el caso de Compass. Si los datos que se elegían era lo que la cárcel registraba de una persona, como género, sexo, edad, barrio, donde vive, etc: en general estos sistemas terminaban siendo muy conservadores en su juicio. Entonces, en general, tendían a reproducir prejuicios ya establecidos.

También puede sesgar el tipo de Algoritmo que elijo, en lo que se llama el sesgo algorítmico. Que tiene que ver como eso refuerza o debilita cierto sesgo intrínseco de esos datos. Y entonces es una mezcla. Las dos cosas de selección. Pero no necesariamente alguien, a priori, va a saber cuál es el sesgo o qué tipo de valor para encarnar eso. Para tiene como consecuencia… ¿qué tipo de rol se da a estos programas que son, en general, programas de decisión en los sistemas sociales, en la vida comunitaria. Si se le da un rol de árbitro, se les da un rol de asistentes. En la Justicia eso está muy en discusión. Hay muchos, muchísimos, asistentes para impartir justicia de distinto tipo. Ahora, la pregunta es: ¿si esos asistentes son los que tiene la última palabra o no? Incluso también y es una pregunta difícil: ¿qué es lo que uno prefiere? ¿Prefiere uno que un sistema artificial sea el que determina mi culpabilidad o un juez? Hay muchas preguntas, muchos motivos para poder elegir en uno u otro sentido.

Y yo lo que creo, más en general ya, es para mí hay que poder pensar los sistemas de aprendizaje y futuros sistemas que espero sean más sofisticados, más interesantes que estos actuales. No como reemplazo ni como en como un paralelo con inteligencia humanas, sino como complementarios. Alguien dice, como prótesis. No en el sentido de que inteligencias humanas combinadas con inteligencias artificiales, forman inteligencias adecuadas, más interesantes. Prótesis implica muchas veces una principal y una secundaria, que desde los humanos parecería ser que es lo que preferirían. Pero, en principio, me parece que no es necesariamente así. De hecho, hay ciertas inteligencias artificiales como por ejemplo los que manejan las redes sociales… Parece al revés: parece que los humanos son prótesis, ellas… Entonces la idea de prótesis está bien en general, siempre y cuando se le ponga más simetría, me parece. Es decir, lo que hay son acoplamientos entre formas de inteligencia diversas. que producen inteligencias en principio o posiblemente más interesantes.

Entrelíneas: Nos gustaría conocer tu opinión sobre una carta abierta o solicitada que sacaron intelectuales, en relación a la inteligencia artificial y sus programas. Sobre todo, esto último que ha estado como muy en boga en relación a que generaban una cierta peligrosidad para para la vida humana o para la vida en sociedad. Y la idea de hacer públicos estos sistemas en por lo menos un tiempo hasta que se investigue las posibles consecuencias. Y también sobre las implicancias que pueden, tener en términos negativos, como plantean, a modo de advertencia…

Javier: Sí, riesgos hay. Muchos, me parece. Está bien que uno se pregunte por esos riesgos. Y que haya acuerdos de cuidado con esos riesgos. Yo creo que, en ese sentido, la gente que escribe esa carta son gente extremadamente respetable. Está muy bien. Y yo creo que es una pregunta para hacerse. La verdad es que la idea de parar, por seis meses como proponían, es entre inocente e inoperante. ¿No? Poco operativa. ¿Por qué 6 meses? ¿De dónde viene eso? Y había como ahí una especie de sustrato que es para que estos sistemas tan poderosos no caigan en malas manos. No. Yo creo que un poco cuando redactan en malas manos, ese es el problema. O sea, lo hay. El 99% de la ética artificial que se desarrolla de este machine learning, de este tipo de tijera artificial, es en empresas privadas con fines de lucro. Donde el motor de devolución de este interés tiene que ver con una disputa de hegemonía de mercado.

“Riesgos hay. Pero el riesgo principal es la concentración de poder que están favoreciendo y consolidando. Ya son grandes actores globales los que manejan esto y tiene un poder supra estatal.”

 

Muchas veces es un mal drive. Y sobre todo en este tipo de tecnología que evolucionan rapidísimo. Lo que implica es que hay que correr, de costado a costado, otros problemas como la seguridad. ¿Qué influencia negativa puede tener especialmente para ganarle al competidor? Y eso de hecho, está ocurriendo todo el tiempo. Entonces, al mismo tiempo que se ve esa carta hubo, por ejemplo, en Alemania otra que proponía casi que lo contrario. Pero decía lo que hay que hacer es liberar todo el sistema artificial y que sean de dominio público, que todo el mundo tenga acceso y control. El sentido de poder escrutar esos sistemas con la opacidad que decía que tiene. Pero, igual, poder usarlo. Poder, de alguna manera, acceder a esos beneficios como un beneficio humano. Yo voy más por esa línea, me parece. Riesgos hay. Pero el riesgo principal es la concentración de poder que están favoreciendo y consolidando. Ya son grandes actores globales los que manejan esto y tiene un poder supra estatal. Frente a eso, también la discusión para mí en el ámbito del pensamiento político. La tecnología, digámoslo así, es, por un lado, la necesidad de regular estos sistemas que los Estados son capaces de regular el desarrollo y la aplicación, los sistemas artificiales. Para mí eso es necesario. No puedo regular algunos procesos, como los productores de lenguaje, porque requieren muchas horas de cómputo para entrenamiento y grandes gastos de computadoras para hacerlo. Entonces, hay un impedimento de escala. Chat GPT entrenó con 1 millón de millones de entradas. 1 billón de entradas son las que tomó para entrenar. Son lugares de entrenamiento, que requieren varias vueltas de procesamiento. Realmente requieren un datacenter y está ubicando en una granja de servidores infernal para poder hacerlo bien. El servicio, en realidad, la gente de Microsoft no la opera. Y hay quien dice que no tiene nada abierto. Lo hicieron por esa posición estratégica que tienen, dentro de un esquema de un mercado informacional. Y eso, sí, es un gran peligro. No porque tiende a un peligro concreto, el peligro existencial de terminar como “Terminator”. Eso es una tontería, para mí. Y puedo abundar de por qué una tontería. Pero el peligro concreto de la concentración de poder, el agravamiento de las desigualdades, la desigualdad entre países. Todo eso hay que considerar, primero en clave regulación. Pero cada vez es más difícil. Hoy la OMC está tratando de regular lo contrario: que no sea posible siquiera escrutar los programas o poner condiciones. Obviamente la OMC, manejada por las grandes corporaciones intenta imponer que hay más grados de libertad para continuar con esta “carrera” de quién maneja estos sistemas. Otra alternativa que hay que explorar, que es para mí la más promisoria sin negar la otra, es al revés: buscar abrir las posibilidades de desarrollo sociales de la inteligencia artificial. Es decir, incorporarlas en procesos virtuosos sociales. Por virtuoso entiendo yo, siempre tendientes a la igualdad, a la justicia, a la participación ciudadana, a la ciencia. Cierto acceso universal a esto, a la formación, a la comprensión ciudadana. Pero que ya está ocurriendo. Y eso abre juego en vez de cerrar. En vez de cerrarlo, por el riesgo, lo abre. Y creo que es la mejor respuesta al riesgo.

“Frente a un riesgo concreto, de que ciertas formas de ciertos programas puedan condicionar el mercado laboral, a partir de trabajo o tomar decisiones que afectan vidas humanas, me parece que lo mejor es abrir. Y que entonces más gente tenga capacidad de incidir sobre eso y tenga la capacidad de desarrollar inclusive alternativas.”

 

Como bien sabemos acá, muchas veces frente a momentos de represión o de totalitarismo, no siempre la mejor idea es esconderse. Muchas veces es tomar la calle. Esto es parecido, en un sentido. Frente a un riesgo concreto, de que ciertas formas de ciertos programas puedan condicionar el mercado laboral, a partir de trabajo o tomar decisiones que afectan vidas humanas, me parece que lo mejor es abrir. Y que entonces más gente tenga capacidad de incidir sobre eso y tenga la capacidad de desarrollar inclusive alternativas. Creo que es la más interesante. Yo imagino que en un futuro cercano todos los grupos políticos tendrán que tener sus programadores, que puedan incorporar este tipo de tecnologías en procesos políticos orientados a determinados fines. Hoy por hoy, procesar la cantidad de publicaciones y textos que hay es humanamente imposible. Entonces hacen falta maneras de acceder a todo ese conocimiento que requiere ese tipo de tecnología. Hace falta que, en esas tecnologías, el desarrollo mismo esté orientado a fines políticos específicos. Hay que hacer un nuevo acoplamiento de trabajo donde no sea que el uso de la tecnología está separado de su producción. No toda tecnología es adecuada para todo tipo de proceso político.

Entrelíneas: Ahí tenemos una pregunta, en relación a experiencias de Inteligencia Artificial con la Justicia. Quizás a nivel internacional existen ya pruebas de estos programas, a modo de poder utilizarla en relación a la justicia… nos preguntábamos si hay un montón o recién está en pleno desarrollo…

Javier: En general en la aplicación de tecnología digital a la Justicia es algo que viene de hace tiempo: el acceso a todos los expedientes, obviamente el procesamiento de ese expediente. Son miles. Pero a un abogado, a un juez le sirve de poco. Entonces, en general, no es solo el acceso sino también el procesamiento de esa información. El sistema de machine learning en un sentido son grandes compresores. La información comprime la información y la hacen operativa. En ese sentido son muy buenas estas cosas para la justicia, porque efectivamente uno puede tomar de una jurisprudencia enorme y produce un texto que, de alguna manera, resume o promedia esa jurisprudencia. ¿Qué valor tiene eso? Es una cosa que habría que juzgar. Justamente. Decidir o elegir en cada caso, en base a otros factores, que no son solamente ese material que esté escrito ahí. Los productores de textos tienen mucho a repetir, no interactúan con el mundo, interactúan con los textos. Son grandes mediadores estadísticos de textos.

Si algo no está en los textos, no es que estos sistemas podrían inferir lo del mundo. No tienen esa capacidad. Por lo menos este tipo de sistema. Para producir fallos, como para asesorar las defensas, hoy ya en algunos Estados de Estados Unidos uno puede pedir un asistente, un abogado asistente que sea artificial, que puede aconsejar a la persona acusada. Y lo puede asesorar también. Estos sistemas van a seguir creciendo. En algunos casos, se intentó tener directamente jueces artificiales que, en base a los datos, pudieran determinar si había culpabilidad o no, o quién tenía razón o no. Sobre todo, en la justicia administrativa. Si se intentó, seguro.

En Estonia, por ejemplo, estaba el proyecto de hacerlo eso de vuelta. Eso es dudoso de que hoy estemos en capacidad de poder hacerlo. Hay un problema a tener en cuenta, un cierto prejuicio, un cierto mito de objetividad. Si inferimos de lo que venimos charlando hasta ahora no habría objetividad. Porque los datos iniciales del procesamiento son datos cuyos hijos están ahí. No son datos objetivos. Son textos humanos. Refleja lo que hay escrito sobre esa función de este sistema. Funciona eligiendo un área semántica, en base a ese entrenamiento, que es lo que el usuario interactúa. ¿Es bueno? No sé. “Háblame de los reyes de Francia en el siglo 18” y ahí te habla de eso. Le preguntás cosas para responder. Ahí, esa forma de responder, es meramente probabilística. Va eligiendo la palabra que sigue en base a una función probabilística, que le va dando que seguir. No es que hay otro tipo de interacción y es estadística, donde sale lo que hay escrito y qué sentido refleja todo lo que se escribió durante. Y está digitalizado en estas décadas o lo que sea.

“Para producir fallos, como para asesorar las defensas, hoy ya en algunos Estados de Estados Unidos uno puede pedir un asistente, un abogado asistente que sea artificial, que puede aconsejar a la persona acusada.”

 

Entonces, si uno entiende eso, no podría adscribir la objetividad al sistema algorítmico. Eso no sería que no tengan utilidad. Son muy útiles. Refleja muchas cosas, pero hay que poder sopesar qué es lo que reflejan y qué es lo que no.

Pero bueno, son aprendizajes sociales que tienen que ir ocurriendo. Yo creo que la tecnología digital y las machine learning hay como una de las tecnologías prominentes en este mundo, no la única… en forma de vuelta, como prótesis, como ayuda. Como manera de mejorar los procesos, de impartir justicia. Yo creo que son ineludibles, tienen que ser parte y es un aprendizaje que tiene que andar bastante rápido. Pero, por supuesto, no hay una idea de reemplazo para mí. Creo que no podría haberlo, en este caso.

Entrelíneas: Y la última pregunta, en relación al mercado laboral… ¿cómo impacta en estas tecnologías? ¿Trabajos manuales o con la participación de personas asistidas por tecnología, hoy serían reemplazables?

Javier: Y sí, eso es un fenómeno que está ocurriendo y que va a seguir ocurriendo. Transforma el mercado laboral. Hay para mí como una discontinuidad tecnológica. Las leyes digitales son una discontinuidad. Yo no suscribo la mirada gradualista de que es un paso más de la tecnología. Dicho eso, toda tecnología produce efectos laborales enormes, no la digital en particular. No solo que producen transformación, en el sentido de que ciertos trabajos que eran artesanales pasan a ser trabajos “automatizados” o “asistidos”. Además, otro de los factores que es fundamental acá, para entender todo esto: la evolución de todo lo digital es velocísima. Es inédita en la historia de la humanidad. Antes, para la evolución de una tecnología a otra pasaban décadas, a veces siglos. Hoy se puede evolucionar en meses. Se pueden cambiar los sistemas de manera muy veloz y quizás más rápido en el futuro. ¿Por qué? Porque no hace falta mucho. Encima evolucionan sin siquiera la participación humana. Ni siquiera está el límite del pensamiento humano. Son más rápido que eso. Hay que entender eso, porque los procesos de transformación de los trabajos digitales son muy, muy acelerados.

Por lo tanto, ciertas tareas como privativa de expertos o del trabajo considerado intelectual o trabajo informacional también está siendo reemplazado. Un sistema puede resolver cantidad de problemas de manera que no sea necesaria la participación humana en ese proceso. Entonces, por supuesto que eso va a acelerar. Si es un trabajo muy mecánico, eso se puede reemplazar. Para eso hace falta que el mercado laboral se transforme también. Yo lo que creo, realmente, es que no hay manera de que el trabajo asalariado se mantenga como la forma de ordenamiento social, distribución de la riqueza. ¿Por qué? Porque, efectivamente, cada vez va a ser menos falta trabajo asalariado. La mayor parte de las tareas son mucho más eficientes de como se pueden hacer ahora. Y eso debería implicar una mejora en los tiempos de humanidad. Pero, a cambio, creo que lo único que hay es una impresión. No tengo fundamentado en datos concretos. Pero muchos autores lo dicen, que no va a alcanzar a futuro, no va a poder ser que el trabajo asalariado sea universal. Y que todo el mundo pueda acceder a los bienes a partir de ese trabajo. Hace falta otra forma de riqueza y otra forma de producir valor, en la cual la integración con sistemas productivos, con servicios inclusive que están mediados por esta forma tecnológica, va a ir creciendo. Pero no es lo que el capitalismo estaría produciendo en este presente.

Me parece importante, hoy, realmente pensar los futuros. Yo creo que hay futuros posibles, muchos de los cuales son distópicos, son preocupantes. Todo lo del trabajo, la forma a las cuales vinculamos con este tipo de sistemas que se van a seguir transformando, que van a seguir evolucionando.

Para mí la mejor apuesta es la evolución. Me parece que hay que ir buscando la vuelta para que hay una evolución en ese sentido, que no sea algo ajeno a lo que somos. Creo que hay que integrarla al pensamiento político, entendiendo sus posibilidades y sus limitaciones. Volver a enfatizar en que a las tecnologías no hay que pensarlas como si fueran parecidos a los humanos. Sí, son inteligencias, la tomamos en un sentido amplio… Ahora no son parecidos a como los humanos funcionan, no necesariamente. Por empezar, no tienen deseos… ¿por qué lo van a tener? Un deseo de supervivencia… En gran parte de la ficción sucede esto: aparece un robot que quiere sobrevivir y que por eso ataca a los humanos. No hay eso, no tiene por qué haberlo. No hay ningún motivo para que eso ocurra. No hay una cultura, ni una historia evolutiva o evolutiva en el sentido biológico. Entonces, son otro tipo de formato de inteligencia, tienen otras propiedades que son interesantes, que son potentes, son buenísimas en muchos sentidos. Hay que poder integrarse con ellas desde esa comprensión, porque eso abre posibilidades enormes para el futuro.