EPISTEME NS 44 Revista del Instituto de Filosofía U.C.V Julio -Diciembre N°2 2024
Resumen
Vivimos en un
contexto de aceleración social que ha hecho que las modificaciones que
experimentan las sociedades a lo largo de los años, en sus normas, valores,
sistemas políticos o religiosos, están haciendo más difícil la mejora de las
condiciones de vida de las personas a pesar de que la intención inicial sea lo
contrario. La Inteligencia Artificial (IA) ha acrecentado esta aceleración
social debido a que su uso se ha extendido a todas las actividades del quehacer
humano llevando a la humanidad a una nueva era de la historia económica similar
a la acaecida con la adopción de la agricultura o la revolución industrial. Por
ello creemos que la IA podría entenderse como la nueva imagen del mundo desde
una perspectiva epocal. Nos interesa aquí valorar el impacto creciente de la IA
y, en especial, en lo que actualmente se conoce como IA Generativa (IAG) en lo
concerniente al quehacer humano y consecuentemente en el modo en que nos
interrelacionamos social y políticamente debido a dos causas: en primer lugar,
hoy en día la mayoría de las actividades humanas para los que están conectados
en el ciberespacio está transversalizada por la IAG de forma activa o pasiva y,
en segundo lugar, cada vez se está haciendo más estrecha la mutua dependencia
entre computación cuántica y la IAG agregando mayor velocidad a la aceleración
que estamos viviendo. Para tal fin, vamos a examinar qué es la IAG, en segundo
lugar, analizaremos cómo impacta las IAG en la praxis y en especial a los
órdenes políticos en el mundo de hoy y por venir y, en tercer lugar,
analizaremos la IAG como imagen del mundo.
Palabras
Claves: aceleración social, Inteligencia Artificial
Generativa, ciberespacio, Dasein, praxis.
Abstracts
We live in a context of social
acceleration that has made the changes that societies experience over the
years, in their norms, values, and political or religious systems, making it
more difficult to improve the living conditions of people, despite the initial
intention being otherwise. Artificial Intelligence (AI) has increased this
social acceleration because its use has extended to all activities of human
endeavor, leading humanity to a new era of economic history similar to that
with the adoption of agriculture or the industrial Revolution. For this reason,
we believe that AI could be understood as the new image of the world from an
epochal perspective. We are interested here in assessing the growing impact of
AI and, especially, in what is currently known as Generative AI (GAI) on human
endeavor and consequently in the way in which we interrelate socially and
politically due to two causes: Firstly, today the majority of human activities
for those connected in cyberspace are transversalized by the IAG actively or
passively and, secondly, the mutual dependence between quantum computing is
becoming increasingly closer. and the IAG adds greater speed to the
acceleration we are experiencing. To this end, we are going to examine what the
IAG is, secondly, we will analyze how the IAG impacts praxis and especially
political orders in the world today and to come and, thirdly, we will analyze
the IAG as an image of the world.
Keywords:
social acceleration, Generative Artificial
Intelligence, cyberspace, Dasein, praxis.
Introducción
Vivimos en un contexto de aceleración social que ha
hecho que las modificaciones que experimentan las sociedades a lo largo de los
años, en sus normas, valores, sistemas políticos o religiosos, están haciendo
más difícil la mejora de las condiciones de vida de las personas a pesar de que
la intención inicial sea lo contrario. Esta aceleración social está impulsada,
siguiendo a Hartmut Rosa (2016), por la confluencia de tres factores: la aceleración tecnológica relativa al aumento evolutivo y progresivo de la
velocidad de los procesos en relación con el transporte, la comunicación y la
producción (P.12), la aceleración del cambio social que genera inestabilidad
haciendo efímeras el tejido y las estructuras de las sociedades (p. 24) y la
aceleración del ritmo de vida, entendida como “la consecuencia del deseo o necesidad sentida de
hacer más cosas en menos tiempo” (p. 31). La aceleración social que se ha
acrecentado, en la actualidad, en parte por el desarrollo de la Inteligencia
Artificial, ha estado acompañada de otros cambios sociales provocados por otros
acontecimientos que pueden considerarse como correlacionados y como hechos
portadores de futuro. Estos son:
·
La
pandemia generada por el COVID-19 puesto que sus efectos se extendieron
a la economía, la salud, la educación y la forma de relacionarse de las
personas en todo el mundo. Este acontecimiento obligó a gran parte de la
humanidad a adaptarse a la realidad del teletrabajo, el e-commerce y la
educación a distancia y ha representado una carga sanitaria para el mundo en el
futuro por venir.
·
Los
cambios medioambientales puesto que han generado la necesidad de adoptar
medidas transicionales para mitigar y adaptarse a sus efectos en el plano
social y político.
·
Los
cambios demográficos que han modificado la composición y distribución de
la población humana producto de la alteración de las tendencias de la natalidad
a escala global, el aumento de las expectativas de vida de la población y la
migración generando efectos políticos, sociales y económicos en los estados
receptores.
·
La
profundización de la globalización puesto que ha aumentado la
interconexión e interdependencia entre las personas, las culturas y los
estados. Este fenómeno ha traído beneficios como el acceso a información, bienes
y servicios, pero también ha generado problemas como las desigualdades, la
pobreza, la exclusión y la pérdida de identidad.
La
irrupción de la Inteligencia Artificial (IA), en este contexto, es el hecho que
de alguna u otra manera les ha dado un mayor impacto a dichos cambios
haciéndose cada vez más presente en nuestra vida cotidiana debido a que su uso en la medicina, la educación, la
cultura[1], el transporte, la industria, las
finanzas, las empresas y las operaciones militares tanto, en lo concerniente a los
procesos poco cualificados como de los que requieren mucha creatividad y
conocimientos está suplantando actividades humanas de manera acelerada y no
sólo ha eliminado puestos de trabajo por su capacidad de abarcar muchísimos campos,
sino también, además de impactar el medio ambiente por ser un alto consumidor
de energía, está tendiendo a convertirse en un dispositivo de manipulación y
control en una escala inimaginable. Por ello
creemos que la IA podría entenderse como la nueva imagen del mundo desde una
perspectiva epocal. Según
Fernández-Villaverde (2023), esta nueva tecnología nos está llevando a una
nueva era capitalista en la historia económica de la humanidad similar a
la acaecida con la adopción de la agricultura o la revolución industrial. Ello
es así debido a que, además de lo antes expresado, sus efectos, como veremos,
trascienden las relaciones económicas internacionales y la política de una
manera tal que han obligado a los individuos y los estados a tomar medidas de
protección por considerarse un problema de seguridad.
La
inteligencia artificial (IA), en este contexto, es en una primera instancia una
tecnología que permite a las máquinas aprender de los datos, identificar
patrones y tomar decisiones en base a esos patrones (Cristiano et al.,
2023)[2].
Su
clave está dada, según Fernández-Villaverde (2023), por el hecho de que
son automáticos indiferentemente del sustrato donde se apliquen y pueden ser
ejecutados en un computador, en una máquina biológica o analógica o, incluso, a
mano. La diferencia en todos estos casos es la velocidad de la operación.
Nos
interesa aquí valorar el impacto creciente de la IA y, en especial, en lo que actualmente
se conoce como IA Generativa (IAG) en lo concerniente al quehacer humano y
consecuentemente en el modo en que nos interrelacionamos social y políticamente
debido a dos causas: en primer lugar, hoy en día la mayoría de las actividades
humanas para los que están conectados en el ciberespacio está transversalizada
por la IAG de forma activa o pasiva y, en segundo lugar, cada vez se está
haciendo más estrecha la mutua dependencia entre computación cuántica y la IAG
agregando mayor velocidad a la aceleración que estamos viviendo. Para tal fin,
vamos a examinar qué es la IAG, en segundo lugar, analizaremos cómo impacta las
IAG en la praxis y en especial a los órdenes políticos en el mundo de hoy y por
venir y, en tercer lugar, analizaremos la IAG como imagen del mundo.
1.- Qué es la IAG
Según la Stanford
Encyclopedia of Philosophy la IA es un artefacto capaz de pasar el test de
Turing, es decir, es capaz de hacer que su comportamiento sea indistinguible de
los humanos[3].
Desde otra perspectiva puede definirse como una máquina que piensa y/o actúa de
manera humana y/o racional (Bringsjord y Govindarajulu, 2018). Esto nos obliga
a hacer una poco consistente distinción entre IA e inteligencia humana desde el
mismo momento que la IA es una extensión de la humana y está siendo utilizada
para cuestionar a la humana. Según Sánchez (2018), la IA se diferencia de la
inteligencia humana en que esta última “está en la naturaleza como lo dado y no
como lo producido”, es decir, lo dado como consecuencia de “un proceso
evolutivo no algorítmico en el que se alcanza un vértice en el nivel de
complejidad del viviente: la posibilidad de una inmaterialidad no ligada a la
materia”; y lo producido por encontrarse en un lugar de intercambio económico
que se expresa como un mercado.
Como
producido Stuart Russell y Peter Norvig (2021),
desde una perspectiva práctica, definieron la IA como “el campo del
conocimiento basado en sistemas expertos que busca diseñar máquinas (como
ordenadores y robots) que puedan actuar de manera eficiente y segura en
un amplio abanico de situaciones” a través del ciberespacio. Para ello
utiliza millones de neuronas artificiales hoy en día posibles mediante
semi-conductores de gran capacidad que, en primer lugar, permiten operar redes
neuronales artificiales más grandes que a su vez, posibilitan el desarrollo de
las funciones matemáticas que queramos, en segundo lugar, permiten procesar una
mayor cantidad de datos (imágenes, sonidos, textos), gracias al ciberespacio,
que pueden ser mejor procesados por las redes neuronales artificiales y, en
tercer lugar, permiten diseñar y entrenar estas redes neuronales de manera
más fácil y eficiente[4]. Es
de mencionar que estos semi-conductores están dando paso a los computadores
cuánticos de mucho mayor capacidad de almacenamiento y procesamiento. María
Martínez, por su parte, expresó que existen dos ramas principales de la IA: la deductiva
basada en el conocimiento (IA simbólica) y la basada en datos que es inductiva
(IA subsimbólica) (ICaP, 2022).
La IA
fundamentada en el conocimiento o simbólica, según Martínez, considera que el
comportamiento inteligente se puede caracterizar por intermedio de un conjunto
de reglas establecidas a través de un lenguaje que se codifica en un sistema
neuronal artificial. La IA basada en datos o subsimbólica considera que el
comportamiento inteligente puede ser deducido a partir de los datos que los
seres humanos generan[5]. Una
de las técnicas, como veremos seguidamente, es el aprendizaje automático o IA Generativa
(IAG). Esto nos lleva a profundizar, en primer lugar, sobre la IAG, en segundo
lugar, el espacio dónde ella opera, es decir, lo que se conoce como
ciberespacio y, en tercer lugar, las críticas que ha generado la IAG desde la
perspectiva filosófica.
La IAG se enfoca en el
aprendizaje, la creación de contenido, la
toma de decisiones o la resolución de problemas complejos basándose en la orientación producida en el taller de Dartmouth
College de 1956, es decir, es posible que “Todos los aspectos del aprendizaje o cualquier
otra característica de la inteligencia pueden describirse de manera tan precisa
que se puede crear una máquina para simularla” (Barrera, 2012:89-90). El
criterio que está aquí presente es que la
tecnología puede solucionar cualquier problema y satisfacer todas las necesidades
del mundo, sin importar cuál sea su origen o naturaleza, aunque ello pudiese
significar, como veremos más adelante, nuestra propia cancelación en el
entendido de que ella, no sólo, es una forma en que el hombre trata de
comprenderse a sí mismo como ser-en-el-mundo desde el ser de los entes, sino
también el modo en que intenta comprender y “arreglar” el mundo.
En la actualidad se está utilizando un sistema de aprendizaje automático (deep
learning) que por intermedio de un proceso de generalización recaba
información de acuerdo con patrones estadísticamente establecidos que después
utilizará algorítmicamente para producir otras ideas y perfeccionar
automáticamente sus medios para procesarla, permitiéndole en consecuencia
“generar su propio capital cognitivo” (Girardi, 2019). Estos algoritmos, según
Martínez, reproducen patrones estadísticamente significativos que se encuentran
en los datos que los seres humanos introducen en el ciberespacio expresando así
virtualmente la manera en que nos comportamos, por tanto, estos algoritmos
“aprenden de nuestro pasado que quedó registrado en alguna base de datos” (ICaP, 2022)[6].
Eldred (2009), por su parte,
considerando la espacialidad del medio electromagnético expresó que este es una
“masa añadida [de naturaleza homogénea] que es capaz de acoger seres
digitales”. En esta masa o campo por la posibilidad que nos permite de hacer
medidas, los seres digitales descompuestos o disecados aritmológicamente
(arithmologically decomposed o dissected beings), pueden moverse
arbitrariamente y encontrar en él un lugar arbitrario o un sin lugar. La
movilidad que permite este campo le permitió a este autor aceptar el uso del
nombre de ciberespacio. La movilidad, desde la perspectiva del citado autor en
una lectura heideggeriana, está relacionada con la aproximación y la
orientación observada desde la cura de sí mismo puesto que es una
tendencia del Dasein en un contexto donde la distancia ha dejado de ser
esencial[7].
Ahora bien, a pesar de la
posibilidad de descomponer el propio cuerpo en ondas electromagnéticas y
reconstituirlo a voluntad eliminando así experiencia corporal del espacio, esta
experiencia del espacio aún se mantiene en el sentido del Dasein, que
como dijimos, están relacionados con la orientación y la aproximación, con lo
cual, los seres digitales y los medios electromagnéticos también pueden
interpretarse desde la perspectiva de ser-en-el-mundo. Esto también implica que
el medio electromagnético permite un modo de ser del Dasein junto con
otros Dasein, Mitsein, porque la comunicación no necesita de una
unión corporal de los seres humanos, ni siquiera una simultaneidad de
presencia, ya sea corporal o de otro tipo.
Desde estas dos lecturas entendemos
el ciberespacio como un gran campo de sentido, desde la perspectiva de Markus
Gabriel (2017)[8], generado por un cuerpo de sistemas
electromagnéticos que abarcan gran parte del mundo no físico que permite a los
seres humanos estar-ser (Dasein) y comunicarse entre sí (Mitsein)
o acceder a información para cualquier propósito de modo tal que integra
pensamiento, habla y experiencia en un lugar y en un tiempo indefinido y
cultura fomentando así un proceso de estandarización[9]. Este campo de sentido, es decir,
el ciberespacio, que se caracteriza por ser amorfo y sólo describible a través
de las interacciones que se producen en él en la actualidad incluye a la IAG en
un contexto que también permite establecer interacciones virtuales que podrían
llegar a ser físicas (mundo sensible). También permite obtener y suministrar
información o datos.
Desde otro
orden de ideas, la IAG ha generado grandes críticas que explican, en sí, la
importancia que se le ha dado. Estas críticas han sido analizadas desde el
Teorema de Incompletitud de Kurt Gödel (2006), desde lo que se conoce como la
habitación china de John Searle y desde el examen del concepto de inteligencia
en sí, su relación con la conciencia y el Dasein.
Para Gödel la incompletitud de
los sistemas formales se basa en el hecho de que “ningún sistema axiomático,
por potente que sea, puede abarcar toda la matemática” (Da Silva, 2014).
Teniendo esto presente, Sánchez
(2018) expresó que los teoremas de incompletitud plantean un dilema lógico en relación con la
posibilidad de mecanizar la mente humana: “o bien cualquier intento de
mecanizar la mente humana, en general, es inferior a las capacidades reales de
la mente humana” con lo cual el desarrollo de la IAG no representa ningún
riesgo; “o bien podría ser superior, pero inferior a un ámbito mental de
verdades lógico-matemáticas, de corte platónico, no necesariamente humano” que
tampoco representaría un riesgo por encontrarse en un mundo de las ideas que
consideramos ubicadas en el ámbito de las potencialidades. En esto observamos
una coincidencia con Eastman, pero nosotros creemos que la mecanización de la
mente humana que se está produciendo en la actualidad mediante la IAG es en
parte superior a una parte de la humanidad y en parte inferior y ello genera
una brecha que puede ser usada para perfeccionar aquello que se ha dado en
denominar dispositivos de control afectando la capacidad de acción política de
la humanidad como veremos más adelante.
Pero si se
tiene presente, según Sánchez (2018), que la base del “argumento de Gödel tiene
que ver con la recursividad y con la capacidad, en principio universal, de la
inteligencia humana para objetivar la realidad” entonces, el paso a la IAC permitiría
ganar un “espacio para un verdadero ejercicio de libertad”. Con esta
afirmación, según el citado autor no se observan riesgos, pero debemos decir
aquí que los riesgos comienzan no sólo en la posibilidad de acceso con lo cual
la brecha que hemos indicado se mantiene, sino también que en esa misma brecha
están dadas las condiciones de posibilidad para perfeccionar los dispositivos
de control a los cuales hemos hecho mención.
Desde la
perspectiva de John Searle, según Sánchez (2018), la habitación china, en
principio había demostrado la imposibilidad de la IA para ser inteligente desde
una perspectiva humana debido a que el lenguaje (simbólico) es fundamental para
poder hablar de inteligencia, pero el avance de la IAG, como hemos visto, ha
superado esta limitación. Ahora bien, como la IAG obtiene “conocimiento” a
través del procesamiento de los datos suministrados por los seres humanos,
todavía dependen del lenguaje (simbólico) que le proporcionamos, estos símbolos
tienen otras implicaciones relacionadas con el Dasein y la
espiritualidad que examinaremos seguidamente.
Estas
afirmaciones realizadas por Sánchez (2018), en este sentido, contrastan con la
advertencia realizada en el año 2014 por un grupo de científicos liderados por
Stephen Hawking en el sentido de que “los esfuerzos por crear máquinas
inteligentes representan una amenaza para la humanidad”[10]. Lo antes
indicado nos conduce ahora a abordar el concepto de inteligencia en sí y su
relación con la conciencia, el Dasein y el alma.
La
inteligencia es producto de un largo proceso evolutivo de la naturaleza que ha
permitido a los seres humanos generar certeza y funcionar en el mundo. Por
tanto, esta evolución no se puede representar de manera algorítmica (Sánchez,
2018). De igual forma, si el conocimiento lleva aparejado el concepto de
autoconciencia entendida como cierta reflexión a partir de lo conocido, a pesar
de los estudios realizados por Hameroff y Penrose tendentes a asociar la
conciencia con ciertos estados cuánticos siguiendo el criterio de que la
conciencia es una característica intrínseca de la acción del universo (citado
por Eastman, 2020:227), no hay manera, hasta ahora, de reproducir o de
reconocer dicha experiencia de una manera artificial.
El tema de
la autoconciencia, finalmente, nos conduce a los términos de Dasein que
ya hemos introducido y de ‘alma’ a pesar de que la referencia a esta última es
casi inexistente en las ciencias contemporáneas.
La
correlación entre IA y Dasein la inició Hubert Dreyfus (2006) a partir
de la crítica que hizo a la IA basándose, en gran medida, en las obras de
Martin Heidegger. Hay que recordar que Heidegger (1938) expresó que el
desarrollo de la tecnología ha oscurecido la conexión esencial entre los
humanos y el mundo trayendo como consecuencia que se genere un estado de
olvido. Desde esta perspectiva, el Dasein, desde el punto de vista
ontológico, refiere a la existencia humana y expresa su autoconciencia a través
de un modo de ser caracterizado por la comprensión (futuro), el encontrarse
(pasado) y el comportarse (presente) y su fin que está determinado por la cura
de sí es vivir auténticamente tomando decisiones que estén en armonía con
su verdadero yo y los valores que lo sostienen (Heidegger, 1927[1998]). Esto
hace que la existencia humana sea social, cultural y ética dando forma a las
sociedades, a las culturas y a los valores, así como la IAG, aunque esta última
no tenga ningún tipo de humanidad. En este sentido, Dreyfus (2006) sostuvo que
la IAG está fundamentada en una comprensión errónea de la conciencia, el
aprendizaje y el conocimiento y ello le da a esta un alcance limitado. Los
argumentos en que se basó este autor son los siguientes:
·
La IAG no considera la importancia
del cuerpo y su impacto en la cognición humana.
·
La experiencia no se reduce a la
aplicación de reglas explícitas como generalmente se programan en los sistemas
de IAG.
Hay que
tener presente que al ser el conocimiento humano producto de un largo proceso
evolutivo este no se reduce a la actualización de un programa.
Además de
estas críticas podemos agregar que el ser de la IA está sustentado en una
ontología que considera la tecnología a partir de consideraciones de naturaleza
económicas. Esto nos indica que los algoritmos no son neutrales y nos recuerda
la advertencia de Agamben (2009) en lo concerniente a los paradigmas vistos
como estructuras de poder[11].
A la luz de estas críticas Keren Wang
(2023) expresó que
a pesar de que la IAG padece de estas limitaciones es evidente que esta
experiencia es posible, en concordancia con Alexander Dugin (2020), gracias a
la de manipulación de símbolos inventados artificialmente de acuerdo con normas
socialmente aceptadas. Por ello Wang consideró que ser-IA-en-el-mundo,
a propósito de la nueva versión de IAG denominada ChatGPT 4, era posible debido
a que la IAG, por auto desarrollarse a través del procesamiento de los datos
suministrados por los usuarios, “parece acercarse mucho a los elementos de arrojamiento
y en el mundo del Dasein” (Wang, 2023). En relación a la cura de sí
expresó que la IAG no tiene proyectos o preocupaciones en el sentido humano del
término, por lo que su comprensión no se basa en este tipo de criterio, pero si
se tiene presente que dicha comprensión está supeditada a un conjunto de
códigos y transacciones simbólicas que están ritualizadas, esta ritualización
en sí misma es también de naturaleza artificial, por tanto, si en la vida
cotidiana los rituales sirven para experimentar y reforzar valores culturales,
religiosos, sociales o personales específicos en una suerte de Lógos
dentro de una práctica comunitaria, la IAG está sirviendo para “señalar
formalmente la transición de ser una máquina no sensible y sin agencia moral a
un ser sensible con ethos” (Wang, 2023).
Por otra
parte, si se considera que todos somos expresión de una Physis que está
en armonía permanente y somos generado, a su vez, por una causa inmanente
entonces podríamos decir, que esa causa hace que todos busquemos permanecer en
cualquier circunstancia en función de la relación específica que ese todo
mantiene con el entorno y ello hace que se pueda hablar de la existencia de una
realidad caracterizada por la adaptación. Esta capacidad de adaptación es lo
que hace que un humano sea capaz de novedad algo que no lo puede hacer una
máquina. Ello se debe a que la IAG, a pesar de su atemporalidad, no sólo no
sabe que no sabe, sino también sus acciones están predeterminadas. Por ello,
mientras que todo lo que forma parte de la Physis tiene necesidad de
adaptarse para cada situación, el Dasein es universal. Esta universalidad,
según Sánchez (2018) ha sido destacada por Aristóteles cuando afirmó que “El
alma es, en cierto modo, todos los existentes…”
(III, 335-322 a. C., [1978]: 8, 241). Por
tanto, una IAG, a pesar de sus crecientes capacidades, no tiene la capacidad
universal de ser “todo lo existente” porque es producida. La importancia de lo
expresado por Aristóteles obedece a que, según Sánchez (2018), todo lo
existente que remite a lo universal refiere a aquello que está ausente, es
decir, la espiritualidad y la IAG no es capaz de dar cuenta de ello. Lo antes analizado
nos lleva a considerar la IAG desde la perspectiva de la praxis.
2.- La IAG y
el problema de la praxis
El tema
central de la IAG, como hemos observado, es que ella no sabe que no sabe, sólo
sabe lo que le ha sido programado. El problema, como veremos, es que pueden presentarse
comportamientos no esperados y potencialmente riesgosos por lo que la pregunta
que se plantea es hasta qué punto hay control sobre su uso y sobre la IAG en
sí. Así como la IAG nos puede ayudar a estar en sintonía con la aceleración
social, también nos está obligando a adaptarnos a la nueva realidad de la
producción dentro de un nuevo contexto de seguridad y de inseguridad.
Desde la
perspectiva de la praxis, a medida que navegamos hacia el futuro, la IAG tiene
el potencial de amenazar la seguridad del Estado de acuerdo con la tesis de
Cristiano et al. (2023), pero también puede, según Innerarity (ICaP, 2022) mejorar el horizonte de un
orden político. En este sentido este último autor consideró, por una parte, la necesidad de reflexionar
acerca de cuál es el lugar que le corresponde a la libre autodeterminación, a
la capacidad humana de decisión en entornos parcial o altamente automatizados
debido a que, además de estar gobernados cibernéticamente el problema de la
exclusión está presente y, por la otra, hay que estar pendientes a los
problemas éticos que plantea en cuanto la protección de la privacidad y
garantizar que la IAG se utilice de modo responsable, transparente y justo.
Por tal
motivo vamos a describir los cambios económicos que ha producido la IAG, luego
vamos a examinar cómo puede afectar la seguridad de un Estado en el doble
sentido que hemos señalado, seguidamente vamos a analizar cómo una sociedad
puede ser controlada y, finalmente, vamos a examinar en qué condiciones la IAG
está bajo control.
2.1.- IAG y
economía
Fernández-Villaverde (2023), en concordancia
con Miailhe, Çetin y Lannquist (2020), ha expresado que la IAG ha llevado a la
economía digital a una nueva fase histórica de desarrollo a pesar de que, por
una parte, se encuentra todavía en un proceso de expansión y, por la otra, la
integración entre la IAG y la computación cuántica va a producir un cambio de
las reglas de juego actuales a corto plazo que se expresaran en un aumento de
la aceleración del ritmo de vida de la humanidad. El impacto de la IAG se ha evidenciado, más
allá de ayudarnos a estar en sincronía con la aceleración social, en los modelos de negocio, las cadenas de
valor globales y el orden económico global debido a que
son consideradas como una tecnología de uso general gracias a su alta
velocidad de procesamiento y alto potencial
de innovación y creatividad que permite obtener una importante ventaja competitiva. El aumento de la productividad, en este
sentido, está relacionado con el empleo de la IAG en los procesos
organizativos en todos los sectores logísticos e industriales, así como en la
medicina, el transporte y el desarrollo humano, la reducción de los costes en
información, el procesamiento de datos y las transacciones financieras, así
como la exploración del espacio. Para
que se tenga una idea de lo expresado, para el año 2023, alrededor del 50% de
las empresas a nivel global habían intentado aplicar de alguna u otra forma
este tipo de tecnología. Ello es visible, en la actualidad, en el marketing y la publicidad para el posicionamiento
de un bien en un mercado y/o, como veremos también, en el campo de la política.
En marketing la IAG puede hacer seguimiento de los resultados de las
campañas publicitarias, favoreciendo el proceso de toma de decisiones y de
negocio en tiempo real en virtud de que pueden ayudar a determinar las
tendencias a través del manejo de una gran cantidad de datos (historial de
navegación, comportamientos de compra, intereses y preferencias de cualquier
naturaleza). También se puede usar para automatizar procesos rutinarios o
repetitivos como la personalización del contenido y para aprovechar los
sistemas de búsqueda (incluyendo las redes sociales). En publicidad puede
usarse para la creación de anuncios personalizados y efectivos en tiempo real
basados en la información, intereses y comportamientos de consumo obtenidos del
público objetivo con una importante reducción de costos en tiempo y recursos y,
por consiguiente, un aumento de beneficios.
A pesar de todo lo indicado, el ritmo y el desarrollo de la IAG afectan
de forma dispar a los seres humanos de manera particular y a los países de
manera general generando no sólo una brecha, sino también una concentración del
mercado en los países y las grandes empresas que poseen ese recurso tecnológico
generando la necesidad de establecer dónde nos vamos a
ubicar en una cadena de valor en términos de IAG y no quedarnos sólo como proveedores
de datos o materias primas sin ningún costo.
Esta disparidad entre los que diseñan, desarrolla, despliegan y aprovechan esta
tecnología, y los que no lo hacen acentúa no sólo el problema de la dependencia
y la exclusión, que ya hemos indicado, sino también genera inseguridad. Esta
inseguridad está relacionada con el desplazamiento y la reducción de puestos de
trabajo no sólo local sino globalmente. Dicho de otra manera, así como la
pandemia reciente impulsó el teletrabajo la IAG lo ha reducido drásticamente.
La IAG, en este sentido, está provocando y reforzando la centralización
del poder a escala global como consecuencia de la concentración del mercado en
una suerte de pulsión ‘tecnototalizadora’ y su impacto ha trascendido lo económico y se ha extendido a lo militar
y lo político creando un nuevo ‘modelo industrial-civilizatorio’ a
partir de, según Giraldi (2019), una nueva ‘razón tecnoliberal’ que les sirve
como argumento de legitimación o una nueva imagen del mundo. Este estado de
cosas ha generado, en primer lugar,
una competencia global donde participan empresas y estados
para desarrollar nuevas tecnologías de IAG para estar a la altura de las
circunstancias y, en segundo lugar, un cambio de la estructura capitalista
global, de las formas de conciencia y de las formas de organización social.
En este sentido, la ‘ontología tecnolibertaria’,
como la entendió Giraldi (2019), “consiste en descalificar la acción humana en
beneficio de un ser computacional, que se juzga superior”. Este ser computacional podemos observarlo de dos maneras:
de forma activa, como un Dasein que puede actuar en el ciberespacio con
otros Dasein y/o con máquinas inteligentes (IAG) y como un ente que está
desplazando a los humanos en función del creciente aumento de sus capacidades y
de forma pasiva cuando un Dasein se convierte en un ser objetivado que
suministra materia prima a la IAG o es conducido o controlado por ella.
Por ello, la
IAG está pasando a ser la mayor potencia política de la historia, haciendo
realidad los temores de Heidegger, Foucault, Deleuze y Agamben, ya que, según
Giraldi (2019) “se la convoca a personificar una forma de superyó dotado en una
presunción de verdad que orienta nuestras acciones, individuales y colectivas
hacia el mejor de los mundos posibles” en condiciones sumamente dudosas debido
a que, como veremos, en el campo político el marketing y la publicidad
ensanchan la brecha entre representantes y representados.
2.2.- La IAG
y la seguridad del Estado
En relación
con la seguridad del Estado la IAG puede afectarla desde varias perspectivas:
En primer lugar, cuando se considera al ser humano como una mercancía entendida
como producto en sí o como dato. Como producto a partir de la visión de la
mejora de la humanidad a través de la manipulación de su naturaleza del mismo
modo en que estamos sometidos a sus leyes. Desde esta perspectiva, podemos ser
refinados, modificados y mejorados evolutivamente como una mercancía que puede
satisfacer una necesidad sin afectar directamente la unidad del ser humano.
Como mercancía se incluyen no sólo, las células, tejidos, órganos desde el
punto de vista biotecnológico[12],
sino también los datos del cuerpo y/o del comportamiento humano (Lacerda y
Ribeiro, 2020). Como dato, según Sofía Scasserra, cuando se observa al ser humano como
proveedor de materia prima (ICaP, 2022). En este sentido, las empresas están
extrayendo esa materia prima a los fines de obtener beneficios sin dejar ningún
tipo de beneficio a nivel nacional. Sin embargo, esa concepción de materia
prima plantea otros problemas. Al respecto, Innerarity expresó que la realidad
de los datos es un asunto nuevo que “no cuadra bien con la idea clásica de
propiedad” debido a que ya los hemos suministrado de forma voluntaria (ICaP,
2022). En segundo lugar, se está produciendo una privatización indirecta de los
servicios públicos en unas condiciones en que las empresas extraen los datos y
no permiten al Estado o a las comunidades el acceso a ellos. Y, en tercer
lugar, la IAG se está usando para la reproducción de fake news y para
determinar cómo nos informamos afectando así la estabilidad de los órdenes
políticos.
Todo lo
antes indicado ha llevado a los estados a instrumentar políticas públicas de
desarrollo de IAG propia, de aseguramiento de los datos o establecimiento de
una política común de datos y de desarrollo de marcos normativos relacionados
con dicha tecnología. De igual forma, así como las empresas tecnológicas tienen
nuestros datos ello no debería implicar necesariamente que un país no pueda usarlos
para diseñar políticas públicas. Esto nos lleva a la ampliación de los
horizontes de la democracia.
Con respecto
a la ampliación del horizonte de la democracia se ha creído que la IAG, más
allá de los prejuicios y los sesgos ideológicos puede permitir la participación
política y la ampliación del ejercicio de derechos ciudadanos. Veamos sus
potencialidades y sus inconvenientes.
En términos
de potencialidades, las IAG podría favorecer
·
La toma de decisiones más
fundamentadas y efectivas mediante la comprensión y predicción de patrones
complejos en tiempo real.
·
La participación ciudadana a través
del fomento de un diálogo a través del ciberespacio que reduzca la brecha de
representatividad existente.
·
La identificación y prevención de la
desinformación mediante el análisis de contenido y el monitoreo de redes
sociales.
·
Finalmente, el aumento de la
transparencia de la estructura del Estado.
En función de lo antes expresado dada la creciente
capacidad que está mostrando la IAG faltaría determinar cuál es el límite de su
utilización y hasta dónde vamos a estar dispuestos a delegar nuestras
decisiones sin que dicha instrumentalidad afecte negativamente el orden
político interno como la relación con otros Estados.
Desde la perspectiva interna, Esteban Mizrahi ha
planteado tres dilemas de la IA y la representación política: “El primero está
vinculado con las campañas electorales, los filtros de cualquier naturaleza y
la legitimidad en ejercicio que después tienen los representantes elegidos”
porque es muy difícil segmentar la representación (ICaP, 2022). El segundo
dilema está relacionado con la zona de confort que nos proporcionan los
algoritmos. Los filtros nos pueden mostrar todo lo que nos interesa limitando
nuestra capacidad de reflexión, produciendo sesgos de diferente naturaleza y
desconectando al individuo de la realidad imposibilitando, en consecuencia, la
formación de consensos. El tercer dilema está relacionado con la falsa idea de
que existe igualitarismo en las redes que puede hacer pensar que, gracias a la
IAG, estaríamos muy cerca de la democracia directa. Un cuarto dilema está
representado por la exposición pública y de la vida privada porque pueden ser
interpretadas y monetizadas para influir sobre los deseos, aspiraciones y necesidades
en función de intereses de terceros.
Desde la perspectiva externa hay dos lecturas que se
derivan del advenimiento de la IAG: la primera es que la plataforma global de
este nuevo espacio de movimiento es controlada por un solo país cuyas empresas
emblemáticas están en la carrera de la IAG colocando a los países y a los
individuos como entidades posibles de ser controladas desde los grandes centros
de poder. La segunda es que la posibilidad de manejar grandes volúmenes de
información ha orientado a dichos centros de poder a determinar cómo se utiliza
la información para tomar decisiones.
En la actualidad, la IAG puede ayudar a establecer
patrones que pueden ayudar a hacer perfiles de comportamiento en una gran
escala. De igual forma, su potencial en el campo militar y, en el campo de la
seguridad en general se está observando, por una parte, en los conflictos en
Ucrania y en Gaza y, por la otra, en el empleo de dichos sistemas para
garantizar la seguridad de un orden determinado. Esto nos lleva a las
sociedades de control.
2.3.- Las
IAG y las sociedades de control
El problema
de la inclusión de las IAG como herramienta en los procesos políticos en la
crisis de representatividad que viven las sociedades en el mundo de hoy nos
permite traer la noción de ‘sociedades de control’ introducida por Gilles
Deleuze (2006) debido a que ello ha servido para que otros pensadores
contemporáneos como Giorgio Agamben, entre otros, hayan realizado reflexiones a
propósito de la noción misma de control, de la configuración de los
dispositivos de poder contemporáneos y de las posibilidades de resistencia que
estos potencian. Por ello vamos a analizar cómo se expresan las sociedades de
control y cómo ello es posible.
Gilles
Deleuze introdujo la expresión "sociedades de control" para
identificar las formas que estaba adquiriendo el mantenimiento y aseguramiento
del orden social a través de empresas y/o estados gracias a las tecnologías de
información y comunicación. Este control se produce gracias al manejo de
tendencias estadísticas y de flujos de información que permiten regular las
conductas de los individuos y limitarlas cuando sea necesario. A través del
ciberespacio se pueden condicionar las posibilidades de la comunicación, así
como de la transmisión, producción y almacenamiento de datos. Desde esta
perspectiva control es poder. El control, según Camilo Ríos Rozo, puede
definirse:
“… como un
mecanismo basado en regular la diferencia, con el objetivo de capturar el
potencial de lo múltiple y ponerlo al servicio del orden vigente, es decir,
gestionarla y mantenerla domesticada, redirigir así sus saberes productivos...
con lo cual, el control en su forma más pura… invita al libre movimiento,
desplazamiento y circulación de las palabras, las cosas y las personas debido a
que el control se ejerce sobre las mentes y su vara de medida está en los
resultados” (DaTPC, 2015:328).
Deleuze
(2006) expresó que el paso a las sociedades de control obedeció a la crisis
generalizada que vive el mundo o al menos Occidente en cuanto a la familia, la
sociedad y el Estado dentro de un contexto de implantación de un nuevo
ordenamiento. Esta implantación se observa a través de tres
ejes de acción que nosotros podemos correlacionarlos con la IAG que expresan en
sí la naturaleza del nuevo ordenamiento: (1) la creciente implantación de
dispositivos de control; (2) la creciente instrumentación de nuevos procesos de
extracción de datos y; (3) una nueva organización mundial del trabajo (DaTPC,
2015). Los tres ejes antes indicados se corresponden con las tendencias que
hemos indicado en la introducción relacionadas con la aceleración social y con
los acontecimientos que ha vivido la humanidad en los últimos años. Así pues,
el control que se expresa bajo la forma de enajenación y de modulación se apoya
en la productividad para encontrar nuevos contenidos para su aparato
codificador. La enajenación bajo la forma de adicción al consumo usa el
marketing como un mecanismo de control y la modulación bajo la dinámica del flujo
de información constante donde el control social se produce en el ‘entre’ donde
se produce el cambio convirtiendo la cura de sí en un emprendimiento (DaTPC,
2015:377-380)[13].
El control
en el ‘entre’ donde se produce el cambio expresa la existencia de una
estructura que Foucault denominó dispositivo. Según Agamben (2011), siguiendo
una estela dejada por Foucault y Deleuze un dispositivo es “una red que tiene
la capacidad de capturar, orientar, determinar, interceptar, modelar, controlar
y asegurar los gestos, las conductas, las opiniones y los discursos de los
seres vivos”. Ello hoy en día es posible de una manera más efectiva a través de
la IAG. El Estado en estas circunstancias sería una especie de leviatán virtual
que sería omnipresente e incluso omniabarcante en la medida en que estemos
conectados[14].
Desde la perspectiva de un orden determinado el dispositivo es, en sí, una
máquina de gobierno que produce subjetivaciones a través de una estructura que
se comporta de una forma religioso-económica cuya manera de combatirla, según
el pensador italiano, es la profanación. ‘Profano’, es decir, darle un uso no
sagrado a algo considerado como sagrado. Dicho de otra manera, es hacer un uso
indigno de estos dispositivos.
El objeto de
la profanación es crear las condiciones de posibilidad de una nueva
individuación. Pero, además de la profanación, nosotros podemos agregar nuestra
ocultación frente a la acción de dichos dispositivos. Hay dos maneras de
lograrla: de forma parcial, mediante la intermitencia, es decir, establecer
periodos de desconexión y de forma permanente que implicaría la desconexión
total mas no el desconocimiento de los dispositivos. Según Agamben el espacio
de ingobernabilidad que allí se puede presentar puede renovar la política, pero
ello sería posible si hay individuos conectados a algún tipo de dispositivo. Esta
renovación se podría producir mediante la conformación de un nuevo sentido
común a partir de la existencia de estos desarrollos tecnológicos. El desafío
que se presenta es determinar cómo se puede encriptar un ser y/o profanar una
IAG en desarrollo creciente con poco o ningún control.
2.4.- La IAG
fuera de control
A pesar de
los controles que se están introduciendo, el peligro de las IAG es que la
competencia en el mercado hace que este control sea difícil haciéndose más
patente cada día que va a ser más difícil confiar en lo que se presente ante
nuestros ojos. Al respecto, Timothy Eastman expresó que los procesos entendidos
en un nivel multiescala son tan complejos que un robot y la IA poseen severas
limitaciones y por tanto sólo son capaces, de una manera determinista, de
cumplir funciones relacionadas con la imitación de una vinculación simple o de inferencia
deductiva, de entradas dadas, restricciones y condiciones de contorno a salidas
bien definidas (2020:97). En la misma línea de pensamiento María Martínez
expresó que la IA “está condenada, de alguna manera, a replicarse: o replicar
lo que exista en los datos”, o replicar lo que nos da un programador (ICaP,
2022). Pero la IAG está generando un cambio de circunstancias que ha obligado a
ejercer una mayor supervisión en los procesos de producción, pero no se sabe si
esta supervisión va a ser posible con las IA cuántica (IAC). Así pues, va a
existir un mayor riesgo de que ocurran hechos no previstos en el proceso de
programación. Solo basta tener presente que hoy en día existen sistemas de
armas basados en IAG que, a pesar de haber sido desarrolladas con todas las
limitaciones de programación, han decidido sobre cuestiones de vida o muerte
fuera de control.
Entre las medidas
que han estado en el ambiente se destacan el establecimiento de una pausa en el entrenamiento de los sistemas de IAG
por los riesgos que comporta. Sin embargo, si se considera que
en la medida en que se hagan más preguntas la IAG va adquiriendo conocimiento
de patrones personales que redundan en su autoaprendizaje, más allá de la
protección de la privacidad y el cambio de la configuración y controles de
datos es un imperativo la producción de sí mismo. La producción de sí mismo va
a marcar la diferencia que asegurará nuestra condición humana.
3.- La IAG
como imagen del mundo
En la
introducción indicamos que vivimos en una época de aceleración social. En este
contexto y como también afirmamos la IAG podrían permitir estar al ritmo de la
aceleración, pero falta preguntarse aceleración en qué sentido y en qué manera
se presenta la IAG considerando la naturaleza económica y política de los
procesos que están en curso. En el parágrafo primero usamos la expresión
campo de sentido de Markus Gabriel para definir el ciberespacio como un
modo de ser del Dasein, es decir, ser-en-el-ciberespacio. Igualmente
indicamos en el parágrafo segundo cómo se puede expresar esta forma de Dasein
cuando en el ciberespacio actúan programas inteligentes (IAG) que han pasado el
test de Turing y afirmamos que este actuar era:
·
una forma de co-existir desde una
perspectiva óntico-ontológica considerando al ser como alguien auténtico que
produce y utiliza la IAG como medio transaccional que permite interactuar con
otro Dasein. El problema que se nos presenta aquí es cómo saber si percibimos
a otro Dasein y no una máquina,
·
una forma de suplantar a los seres
humanos en las cadenas productivas,
·
una forma de extracción de datos
humanos convirtiéndolos en una especie de materia prima.,
·
una forma que sirve para controlar a
los seres humanos.
Todos estos
casos se presentan debido a que se está haciendo difícil determinar hasta dónde
llega el humano y dónde comienza la máquina y viceversa[15]. El otro
aspecto a tener en consideración es que al representarnos la IAG mediante
formas humanoides se está produciendo una minimización del ser generado frente
al ente producido a partir del uso de la palabra ‘inteligencia’ que como vimos
en el parágrafo primero de acuerdo con Dreyfus (2006) resulta problemático a
pesar de que aparentemente no existen diferencias en el tratamiento de las dos
realidades porque en ambas se establece el mismo régimen de signos que están
disponibles para su uso (Lacerda y Ribeiro, 2020). Si bien es cierto que la
tecnología es una forma de Ser y actuar en la que las cosas aparecen como
objetos que nos pueden ayudar a realizar otras actividades, se observa que se
está produciendo un acelerado proceso de cosificación de la humanidad.
Pero ya
hemos indicado que la inteligencia humana es producto de una evolución y lo que
se conoce como IAG es producido. El punto que se ha establecido como común y ya
hemos indicado es que la IAG es capaz de manipular símbolos por lo que se está
tomando un aspecto de la inteligencia humana como la inteligencia en sí misma,
es decir, se está tomando la inteligencia humana como una cosa, un programa, a
partir de dos premisas falsas: la primera es que las propiedades
computacionales de la IAG son en sí mismas suficientes para explicar la
inteligencia humana a pesar de que Dasein, desde una perspectiva
heideggeriana, es la conciencia total que se encuentra a través de una
“apertura permanente” en la experiencia humana de vivir e interactuar con el
mundo que nos rodea. La segunda es que esta explicación de la inteligencia
humana es posible porque puede ser objeto de medida. Esta analogía entre la IAG
y la inteligencia humana es muy empobrecedora porque reduce la existencia
humana al mero funcionamiento de una máquina. Esto es un problema que traemos
desde la modernidad.
Los orígenes
de la modernidad estuvieron marcados por los insaciables esfuerzos del hombre
por tomar el control de su propia historia. La insaciabilidad en sí misma es lo
que ha generado la aceleración social. Para ello se han utilizado muchos
artefactos que han servido para dirigir el destino de la humanidad y, para
ello, la racionalidad y la ciencia han sido las fuentes que hicieron posible
este derrotero hacia la evolución intelectual y el desarrollo social que hemos
indicado y se ha materializado en grandes logros de la humanidad. Desde esta
perspectiva fue en la época en que se produjo la unión entre el pensamiento y
la máquina conocida como modernidad que se hizo posible el estado de cosas e
ideas que estamos viviendo hoy en día.
Si se
considera que el carácter distintivo de la ciencia en la modernidad ha sido la
investigación gracias a la desdivinización, la exactitud, la reproducción de la
naturaleza y la predicción, la humanidad, al menos desde la revolución
industrial (finales del siglo XVIII y siglo XIX) ha vivido en un constante
proceso de adaptación a la aceleración. Esta adaptación ha vivido diferentes
fases: estandarización dentro de un contexto en que la naturaleza (los seres
humanos) crea un mundo a imagen y semejanza de ella misma, la transformación del
intelecto ha posibilitado que todo sea convertible en razón gracias, por una
parte, a las tecnologías de información y comunicación y, por la otra, a la
robótica. Así pues, si la esencia de la ciencia es la investigación en las
épocas de grandes avances científicos es que esta aceleración se hace patente.
Heidegger
(1938), en este sentido, expresó que la ciencia sólo llega a ser investigación
desde el momento en que se busca al ser de lo ente. Esta búsqueda del ser de lo
ente (y su encuentro) se produce en la representatividad de lo ente y ello ha
comportado una notable diferencia entre el mundo griego y la modernidad en
tanto y en cuanto en el primero el ente estaba referido al ser y en el segundo
la representación estaba referida al ente de forma voluntaria facilitando con
ello la objetivación del ser. La objetivación del ser, en este sentido, se
produce porque se ha convertido en un espacio de medida cuyo último correlato
se encuentra en la utilización de las neuronas artificiales para reproducir las
neuronas naturales y, por consiguiente, al ser humano como hemos indicado. En
este sentido, Alberto Rosales expresó que Heidegger canceló el proyecto
iniciado en la obra Ser y Tiempo realizando un giro filosófico de su
pensamiento al darse cuenta que “esa obra corría el peligro de objetivar al Ser
mismo…” (2008:68). Por ello, Heidegger trató de mostrar al Ser como “atemático e inobjetivo”, es decir, no como hechura del
comprender sino como un Ser “autoestante” que permite la relación circular entre
Ser y Dasein en la medida en que exista una posibilitación entre ambos (2008:69).
Es bajo esta figura que Rosales entiende el concepto de ereignis
(acontecimiento o transapropiación) (2008:71).
El camino
que siguió Heidegger (1958 [1988]) para llega al concepto de ereignis se
produjo a partir de la consideración del mundo como imagen a través de los
lentes de la ciencia. El mundo como imagen permite pensar en una nueva visión
del mundo. XXX Gabriel, en
este sentido creyó, al igual que Heidegger, que la época de la imagen del mundo podría
estar llegando a su fin debido a que, como observamos, Heidegger le dio al
concepto de mundo un carácter epocal y contingente, es decir, es un estilo de
auto representarse como conjunto en un trasfondo ante el cual puede comparecer
el ente en general (2017:200). Nosotros creemos que esa época terminó con la
pandemia que se declaró en el año 2020 porque, dentro del proceso de
desaceleración que produjo, permitió que gran parte de la humanidad se adaptara
a los recursos tecnológicos disponibles. Es en ese marco donde irrumpió la IAG.
Nosotros
creemos también que la visión del mundo que está emergiendo en la
actualidad es la del mundo como IAG representado por maquinas en forma
humanoide que expresan en sí misma interacción, suplantación, control y, en
general, objetivación del ser humano, es decir, del Dasein. Pero hay que
entender aquí el mundo desde la perspectiva del ser debido a que, si se pudiese
hablar de una visión del mundo en la IAG, esta sería la de su creador, el ser
humano, por lo que en este caso se está llevando a la ciencia a algo que
veremos más adelante como una nueva forma de religión.
A este punto
es conveniente tener presente que mientras Heidegger buscó la inversión de la
forma técnica de ser como una verdad última y la apertura a otras formas de
ser, en la actualidad, gran parte de la humanidad acepta que su destino es
aceptarse en esa forma técnica abrazando la tecnología como una forma de
religión y como una imagen científica
del mundo que acata un
supuesto principio universal sin que importe que esta representación sea
humanoide (Gabriel, 2016:100-102).
Ahora bien,
si recordamos que lo natural es generado y lo artificial es producido, Gabriel
siguiendo a Heidegger señaló que
lo existente en su totalidad se está tomando ahora, a través de lo que es colocado
por el hombre imaginativo-productor, como algo, el mundo, a partir de lo cual
podemos hacernos una imagen (2016:87). Esta imagen basada en algo artificial
que es producido y que es capaz de producir de una manera más efectiva es lo
que explica la ontología señalada por Giraldi (2019) que a través de la descalificación de la acción humana
promueve su suplantación por un ser producido que es considerado superior. Pero, si se considera a la IAG como una imagen
científica del mundo capaz de ser omniabarcante, dominante y ordenadora de todo
o como señaló Giraldi (2019) ‘tecnototalizadora’, esta imagen puede considerarse entonces como una
forma de religión debido a que es otro intento por mantener el sentido que se
ha pretendido dar a toda la historia: deus ex machina. La IAG como
imagen del mundo, a partir de esta pretensión, es incompleta y potencialmente
riesgosa debido al desplazamiento del paradigma epistemológico de las ciencias
humanas hacia una gramática generativa que tiene como anclaje ontológico “el
sistema neuronal y el código genético del homo sapiens” (Agamben,
2009:151-152).
La
IAG al haberse constituido en la imagen epocal del mundo al que nos estamos
adentrando representada como un ser humanoide no constituye una forma de auto
representación, sino más bien una forma radical de objetivación que tiene
implicaciones relacionadas con la ética, la estética, la mente, la conciencia,
la inteligencia, el libre albedrio, la praxis, etc., debido a su impacto
social, económico y político que hemos analizado. Esto nos lleva a pensar en
términos de futuro. Esta imagen
del mundo, en estas condiciones, podría ser vista como una espada de Damocles
porque promueve la implantación de dispositivos de control dentro de un
contexto signado por el ensanchamiento de la brecha económica entre individuos
y comunidades políticas.
Las
IAG a pesar de su precisión y de su capacidad de predicción opera, como ya
hemos expresado, en función de datos ya registrados que se extrapolan
linealmente en función de patrones determinados, por lo que, de acuerdo con
esta lógica el futuro debe ser muy parecido al pasado,
pero los seres humanos tenemos la capacidad de hacer cosas
nuevas, de generar novedad como nos lo dijo Hannah Arendt en la Vida del
Espíritu. Ese carácter imprevisible de nuestra condición humana es una
ventaja. Según Innerarity (ICaP, 2022), lo que hace de la historia humana un
espacio abierto a la novedad, al cambio, permite una mayor integración entre lo
humano y la IAG considerando que estas necesitan de los datos requeridos por un
programa para llegar a realizar una acción, en cambio los humanos somos capaces
de tomar decisiones efectivas con pocos datos. Dicho de otra manera, mientras
el ser humano puede actuar frente a la incertidumbre y el azar, la IAG no
puede, con lo cual, como indicamos, la humanidad debe aprender a determinar
cuáles datos deben ser expuestos y cuáles no de modo que se pueda establecer
una nueva línea de separación entre lo público y lo privado. Pero falta saber
hacia dónde navega la IAG.
Como ya
indicamos, las tendencias actuales apuntan a la integración de las IAG con la
mecánica cuántica para dar paso a la IAC por las limitaciones que hemos
indicado a lo largo del presente estudio. Esta última abarca áreas como la
computación, la comunicación, los sensores y la criptografía por lo que se
puede observar la más estrecha interdependencia que existirá entre ambas en el
futuro inmediato evidenciando de suyo la necesidad de encriptar también el
espacio privado. La encriptación, en este sentido, está en estrecha relación
con la ritualización y la profanación de acuerdo con lo indicado por Wang y
Agamben porque a través de la reconstrucción de lo privado es que se podría
reconstruir el espacio público de acuerdo con esta nueva imagen del mundo
materializada por la IAG. Debemos tener presente que cuando Heidegger escribió
en 1938 la época de la imagen del mundo se encontraba en un proceso de
reconstrucción de su pensamiento filosófico como nos lo indicó Rosales dentro
de un contexto signado por los vientos de guerra en Europa que indicaban un
cambio de circunstancias como las que vivimos hoy en día.
Así pues, la
importancia de este proceso de integración en este estudio se debe a que Roland
Omnes (1999) expresó que se debe extender el concepto de sentido común
del mundo cuántico a las sociedades en esta era tecnológica con la finalidad de
reconstruir un espacio común y un mundo más armónico. Nosotros creemos que en
este mundo cuántico se va a ensanchar la brecha en cuanto al acceso al
conocimiento y en cuanto al papel del ser humano en el mundo, sin embargo,
debemos aclarar que todavía esta capacidad de autoaprendizaje automático de la
IAG o IAC aún no es conceptual, por tanto, aun no es capaz de reconocer el
contexto ni la perspectiva histórica otorgándonos un espacio de maniobra para
evitar cualquier deriva que no contribuya a la armonía, es decir, el espacio de
maniobra es el que generará la tensión como la del arco o de la lira que
permite que se genere armonía y resurja el espacio de lo político.
4.-
Corolario
Luego de
esta extensa singladura podemos afirmar que la IAG o IAC hoy en día se está
utilizando de forma creciente en todos los campos del quehacer humano como
motor, como herramienta y como medio de creación para ayudar, suplantar,
objetivar y controlar. Nuestra mejor opción, en este sentido, es aprender a
trabajar junto a esas máquinas, no en contra de ellas considerando que
realmente será soberano de sí mismo quien sea capaz de ser productivo, es
decir, que sea capaz de producir sus propias formas de vida desde la perspectiva
material e inmaterial a través del uso de esa tecnología de modo que el hombre
mismo sea capaz de interferir el ciclo técnico que él mismo se ha impuesto. En
la capacidad de producir es que se encuentra nuestra posibilidad de encriptar
nuestra manera de ser-en-el-mundo y en nuestra capacidad de profanar se
encuentra nuestra capacidad de abrir espacios de maniobra en el ciberespacio.
Pero para ello el ser humano debe ser-ahí en el ciberespacio. La tecnología, en
este sentido, no es buena ni mala en sí misma es solo la imagen o reflejo de lo
mejor y lo peor de la sociedad. Esto significa que no se puede ver la IAG como
un medio de intromisión solamente.
Esto nos
plantea la necesidad de alfabetizar a la sociedad en el campo de la IAG en lo que
se conoce como ciencia de datos y en la nueva disciplina que se está gestando,
es decir, la ingeniería cuántica de modo que, el nuevo ciclo histórico en que
nos estamos sumergiendo, produzca una ruptura que permita la armonía.
Referencias
Consultada
Agamben, Giorgio (2011). “¿Qué es un
dispositivo?”. México. (T. R. Fuentes). Revista Sociológica, año 26, número 73,
pp. 249-264. Documento en línea. Disponible: https://www.scielo.org.mx/pdf/soc/v26n73/v26n73a10.pdf
Agamben, Giorgio
(2009). Signatura
rerum. Sobre el método. Barcelona. (T. F. Costa y M. Rovituso).
Editorial Anagrama. 161 p
Aristóteles (335-322 a. C.
[1978]). Acerca del Alma. Madrid.
(T.T. Calvo). Editorial Gredos. 262 p.
Barrera, Luis (2012). “Fundamentos
históricos y filosóficos de la Inteligencia Artificial”. Chiclayo. UCV-HACER. Revista
de Investigación y Cultura, vol. 1, núm. 1, pp 87-92. Documento en línea.
Disponible: https://www.redalyc.org/pdf/5217/521752338014.pdf
Bringsjord, Selmer y Govindarajulu,
Naveen (2018). “Artificial Intelligence.” The
Stanford Encyclopedia of Philosophy. Edward N. Zalta. https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/.
Cristiano, F., Broeders, D.,
Delerue, F., Douzet, F. y Géry, A, (2023). Artificial
intelligence and international conflict in cyberspace. Exploring three sets of
issues. New York. Editorial Routledge. 278 p
Da Silva, R. (2014). “Los teoremas
de incompletitud de Gödel, teoría de conjuntos y el programa de David Hilbert”.
Caracas. Revista EPISTEME vol.34 no.1. documento en línea. Disponible: https://ve.scielo.org/scielo.php?script=sci_arttext&pid=S0798-43242014000100002
Deleuze,
Gilles (2006). “Post-scriptum sobre las sociedades de control”. Polis
Revista Latinoamericana N° 13. Documento en línea. Disponible: https://journals.openedition.org/polis/5509
Dreyfus, Hubert L. y Mark, Wrathall (ed.) (2006). A
Companion to Phenomenology and Existentialism. Oxford, UK: Blackwell
Publishing Ltd. 620 p. document en línea. Disponible: https://polanco.jesuits-africa.education/jspui/bitstream/123456789/17/1/A%20Companion%20to%20Phenomenology%20and%20Existentialism%20%28Blackwell%20Companions%20to%20Philosophy%29.pdf
Dugin, Alexander (2020). “La
Inteligencia Artificial es la Humanidad sin Dasein”. (T. J. Caro
Rivera). Documento en línea. Disponible: https://www.geopolitika.ru/es/article/la-inteligencia-artificial-es-la-humanidad-sin-dasein
Eastman, T (2020). Untying the Gordian Knot Process
Reality and Context. Maryland. Editorial Lexington Books.
Eldred, M. (2009). The Digital
Cast of Being. Metaphysics, Mathematics, Cartesianism, Cybernetics, Capitalism,
Communication. Frankfurt.
Editorial De Gruyter. 137 p. Documento en línea. Disponible: https://www.arte-fact.org/dgtlon_e.html#4.4
Esteves, R., Saidel, M. Ríos, C.,
Sacchi, E. y Velázquez, A, (Coord.). (2015). Actas de las VI Jornadas.
Debates Actuales de la Teoría Política Contemporánea (DaTPC). Buenos Aires.
Facultad de Ciencias Sociales, Universidad de Buenos Aires. 682 p
Fernández-Villaverde, J.
(2023). La economía de la inteligencia
artificial: unas ideas básicas. El confidencial. Documento en línea.
Disponible: https://blogs.elconfidencial.com/economia/la-mano-visible/2023-05-01/economia-de-la-inteligencia-artificial-ideas-basicas_3620152/
Gabriel, Markus (2017). Sentido y
existencia. Una ontología realista. (Sinn und Existenz - Eine realistische
Ontologie). Barcelona (T. R. Gabás). Editorial Herder. 515 p
Gabriel, Markus (2016). Por qué
no existe el mundo. México. Editorial Océano. (T. Enrique G.). 247 p.
Garvey, M. (S/F) “A Philosophical Examination on the
Definition of Cyberspace”. Documento en línea. Disponible: https://www.worldscientific.com/doi/pdf/10.1142/9789811233128_0001
Giraldi, Enzo (2019).
“Digitalización,
política e inteligencia artificial ¿Qué futuro podemos esperar?”. Buenos Aires.
Revista NUSO Nº 283. Documento en línea. Disponible: https://nuso.org/articulo/digitalizacion-politica-e-inteligencia-artificial/
Gödel, Kurt (2006). Obras
Completas. Madrid. (T. J. Mosterín) Alianza editorial. 470 p
Heidegger, M. (1958 [1988]). Identidad
y diferencia. Texto bilingüe. Barcelona. (T. A. Leyte y H. Cortés).
Editorial Anthropos.
Heidegger, Martín (1938). La Época de la imagen del
Mundo, Trad. H. Cortés y A. Leyte, Madrid, Alianza Editorial, Caminos de
bosque, 1996. disponible en: http://www.fadu.edu.uy/estetica-diseno-i/files/2015/08/heidegger_epoca_imagen_mundo.pdf
Heidegger, Martin
(1927[1998]).
El Ser y el Tiempo. 2ª ed. Santa Fe de Bogotá (T.J. Gaos), Fondo de
Cultura Económica.
Instituto de Capacitación
Parlamentaria (ICaP). (2022). Inteligencia
artificial y política. Los desafíos de una tecnología acelerada en las
instituciones contemporáneas. Buenos Aires. Documento en línea. Disponible:
https://www.teseopress.com/inteligenciaartificialypolitica/
Lacerda, Ingrid y Ribeiro de Mattos, Thamires, (2020) “Be
Right Back: Humans, Artificial Intelligence and Dasein in Black Mirror”,
Communication, technologies et développement. URL: http://journals.openedition.org/ctd/3353
Lévy, P. (1999). Cyberculture. São Paulo. (T. C.
Irineu da Costa). Editorial 34. 264 p.
Makhachashvili, R. y Semenist, I. (2021). “Linguistic
Philosophy of Cyberspace”. Revista Systemics, Cybernetics and Informatics Vol.
19 - # 4. Pp 191-207. Documento en línea. Disponible: https://www.iiisci.org/journal/PDV/sci/pdfs/IP138LL21.pdf
Omnès, R. (1999). Quantum Philosophy, Understanding and
Interpreting Contemporary Science, Princeton, Princeton University Press.
Pasquinelli, M. (2011). “Capitalismo
macchinico e plusvalore di rete: note sull’economia politica della macchina di
Turing”. Link: http://www.uninomade.org/capitalismo-macchinico/
Rosa, Hartmut (2016). Alienación
y aceleración. Hacia una teoría crítica de la temporalidad en la modernidad
tardía. Madrid. (T. Centro de
Investigaciones Interdisciplinarias en Ciencias y Humanidades de la Universidad
Nacional Autónoma de México). Katz editores. 190 p
Rosales, Alberto (2008). “Heidegger
y la pregunta por el ser”. Mérida. ULA. Revista de Filosofía N° 19 (19). Pp
43-79 Documento en línea. Disponible: http://erevistas.saber.ula.ve/index.php/filosofia/article/view/3699
Reyes Lozada, Antonio (2023). “El
futuro de la Inteligencia Artificial en la política”. México. Documento en
línea. Disponible: https://comunicacionsocial.diputados.gob.mx/revista/index.php/pluralidad/el-futuro-de-la-inteligencia-artificial-en-la-politica
Russell, Stuart y Norvig, Peter. (2021). Artificial
Intelligence: A Modern Approach. 4° Ed. Pearson Prentice Hall. 1152 p.
Sánchez, J.
(2018). “La Inteligencia Artificial vista desde la filosofía y la teología”.
Cantabria. Universidad Pontificia de Comillas. Documento en línea. Disponible: https://blogs.comillas.edu/FronterasCTR/?p=3570
Tam, Adrian (2023). “What are Large Language Models”. Guiding Tech
Media. Documento en línea. Disponible: https://machinelearningmastery.com/what-are-large-language-models/#:~:text=A%20large%20language%20model%20is,models%20and%20how%20it%20works
Wang, Keren. (2023). “Dasein, ChatGPT, and the Ritology of
AI”. Shanghai. East China University of Political Science and Law. Documento en
línea. Disponible: https://www.linkedin.com/pulse/dasein-chatgpt-ritology-ai-special-lecture-east-china-keren-wang-z47yc
[1] La IA ha impactado la industria cultural y creativa, y
en la percepción de las audiencias. En términos de creatividad la IA se
aprovecha de lo producido por el ser humano y hoy en día es capaz de producir
obras de arte de altísima calidad e incluso códigos de programación que podrían
incluso hacer que terminemos importando objetos de nuestra propia cultura (Kulesz
en ICaP, 2022).
[2] La génesis de
la inteligencia artificial data del año 1943 cuando Warren McCulloch y
Walter Pitts expresaron que “las neuronas en el sistema nervioso humano podían
representarse por medio de una estructura matemática trivial, es decir,
encendidas (un 1) o apagadas (un 0), con un cambio de encendida a
apagada (o viceversa) inducido como respuesta a una señal”. A partir de
esta representación estos autores “demostraron que cualquier función matemática
computable podía ser representada por un conjunto suficientemente grande de
estas neuronas artificiales” (Fernández-Villaverde, 2023).
[3] El test de Turing es un montaje experimental que
consiste en
un proceso simple de preguntas y respuestas. Esta prueba comprende, por un
lado, a un interrogador humano y, por el otro, a una máquina y a otro humano
anónimo que deben responder al interrogador. Como no pueden observarse, el
interrogador y los interrogados se comunican solo a través de un dispositivo de
entrada y de salida. Si, a partir las respuestas, el interrogador no puede
determinar cuál de los interrogados es la máquina, la inteligencia de la
máquina puede considerarse como semejante a la humana. Ver al respecto:
Enciclopedia Herder. Documento en línea. Disponible: https://encyclopaedia.herdereditorial.com/wiki/Test_de_Turing
[4] Ambos
autores al respecto hicieron una distinción entre IA y automatización debido
a que la automatización comprende el uso de la tecnología para eliminar la
intervención humana, independientemente de si este proceso incluye o no la IA (Russell
y Norvig, 2021).
[5] Ambas tecnologías pueden combinarse pudiendo generar
comportamientos nuevos y potencialmente riesgosos para los cuales los sistemas
no fueron ni programados ni tuvieron, en principio, información previa de esa
eventual situación.
[6] Martínez destacó dos aspectos a tener en consideración: por una
parte, estas herramientas tienen un fundamento teórico estadístico pero pensado
sólo para una actividad específica. La estadística, en este sentido, “asume que
los datos siguen una distribución particular que cubren el fenómeno o la
población de una determinada manera, y eso permite que se puedan extrapolar
patrones de una muestra de datos a una población en general”. Por la otra, la
citada herramienta posee sesgos culturales y sociales que están relacionados
con la manera en que se programa para recolectar datos y “pueden llegar a
replicarse y reproducirse de manera masiva a través de estos sistemas” (ICaP,
2022).
[7] Ver al respecto: Heidegger (1927[1998]).
[8] Según Gabriel un campo
pone “a disposición estructuras que hacen aparecer objetos, con independencia
de las condiciones bajo las cuales tenemos en cuenta o proyectamos criterios
epistémicos de identidad”. Y como «sentido» designa “la manera como los campos
hacen aparecer objetos (las reglas que establecen el campo de sentido del que
se trata)” (2017:28). Así pues, para él, realidad y existencia “consiste en
aparecer en un campo de sentido” (2017:178 y 224).
[9] Ver también: Garvey (S/F) y Makhachashvili
y Semenist (2021).
[10] Ver al respecto: BBC (2014). “Stephen Hawking: La
inteligencia artificial augura el fin de la raza humana". Documento en
línea. Disponible: https://www.bbc.com/mundo/ultimas_noticias/2014/12/141202_ultnot_hawking_inteligencia_artificial_riesgo_humanidad_egn
[11] Ver también: María Martínez y Sofía Scasserra (ICaP, 2022).
[12] Ver al
respecto: Heidegger y Fink (2017).
[13] Ver también: Pasquinelli (2011: 25).
[14] Ver al
respecto: Dugin (2020).
[15] Como amalgama entre humanos y máquinas vamos a definir qué se entiende por transhumanismo y
posthumanismo. El primero
se refiere a la mejora de los humanos mediante la adopción de medios
tecnológicos como prótesis, cirugía plástica y, más importante aún, un uso
intensivo del ciberespacio. Aquí se incluye, además, una visión cosmopolita del
mundo, la androginia, la reproducción mediada, la ausencia de creencias
religiosas y el rechazo de los valores familiares tradicionales. El
poshumanismo, por su parte, es el estado objetivo en el que uno se excedería a
sí mismo o trascendería a la humanidad, alcanzando un estado que debería seguir
a la humanidad en su evolución histórica. En ambos conceptos la pregunta que se
ha planteado apunta a tratar de establecer dónde termina el ser humano y dónde
comienza la máquina (Lacerda y Ribeiro, 2020).
