Contacto Boletín

En profunditat | Noticias Generales

12-12-2023

Sé el que faràs el proper estiu. Idees per a una anàlisi crítica del gir algorítmic del turisme

Sergio Yanes

La indústria del turisme ha sabut adoptar el relat de la intel·ligència artificial com a motor de progrés i eficàcia. Però des d'una perspectiva crítica, el seu desenvolupament no sols suposa una intensificació dels mecanismes de control social, també ens porta a l'abisme de ser incapaços de pensar i imaginar futurs alternatius a la seva veritat.


Crédito Fotografía: Imagen creada con Copilot por Sergio Yanes y Renan Moraes.

(article disponible només en castellà)

En pocos años la inteligencia artificial ha irrumpido como el más imponente de los horizontes tecnológicos. Hoy por hoy, al menos en lo que a relato se refiere, el futuro sólo se concibe como un futuro digital. El imaginario de la ciencia y la tecnología como motores del progreso y el bienestar apenas es contradicho. El desarrollo de la inteligencia artificial se nos vende como imparable, como el recurso definitivo con el que dar respuesta a los problemas globales que nos acechan; no importa si se trata de una cuestión climática, económica, social o securitaria, la inteligencia artificial ha llegado con la promesa de hacer lo que nosotros no sabemos ni podemos hacer.

¿Pero, qué sabemos de la inteligencia artificial más allá de las recurrentes imágenes de robots, cyborgs, conexiones y redes? Aunque no sea la intención de este texto resolver las preguntas que todo profano debe tener sobre un tema tan complejo como este, permitidme que tome como punto de partida un concepto no menos confuso: el algoritmo. Como suele ser habitual en estos casos, no hay una única definición. La más aséptica, sostiene que un algoritmo es “el conjunto ordenado de reglas matemáticas que deben ser seguidas para resolver un problema determinado” (podríamos añadir aquí que ese “problema determinado” es en realidad un problema que ha sido formulado también en términos matemáticos). El algoritmo es la pieza fundamental de la llamada inteligencia artificial. Mediante el procesamiento de datos masivos, hace posible, por así decirlo, la automatización de los procesos de toma de decisión.

Controvertido incluso dentro de los estudios de ciencia y tecnología, el término algoritmo ha tenido y tiene un incómodo encaje en el corpus teórico de disciplinas alejadas de la órbita STEM (acrónimo en de Science, Technology, Engineering and Mathematics).Cuando llevamos la inteligencia artificial y los algoritmos al campo de las ciencias sociales (que es desde donde analizo ahora el turismo), lo hacemos para examinar la capacidad que estos tienen para moldear y guiar el comportamiento humano y, en concreto, los modos de organizarnos socialmente (incluyo aquí, cualquier cuestión económica, política, cultural, etc., de lo social). Desde este punto de vista, los algoritmos ya no son meras fórmulas matemáticas sino el núcleo de un sinfín de artefactos que inciden sobre el funcionamiento social de las personas. Dicho de otro modo, son una forma particular de racionalidad, un modo general de ordenar, pautar o establecer patrones en lo social.

¿Dónde queda la capacidad analítica del humano cuando el tratamiento masivo de datos acapara la verdad? | Imagen creada con Copilot por Sergio Yanes y Renan Moraes.

Esta afirmación nos obliga a fijarnos en los intereses particulares de quienes los diseñan y los contextos sociales en los que se diseñan los algoritmos. Si, técnicamente, los aspectos que definen los algoritmos son, los datos de entrada, los componentes lógicos, los componentes de control y los datos de salida; socialmente son, los grupos que seleccionan los datos, el tipo de datos seleccionados y motivos por lo que esos datos son seleccionados. Es decir, los algoritmos tienen una parte técnica que se ocupa de cómo se procesan los datos, y una parte social que se centra en quién recopila los datos, qué tipo de datos se recopilan y por qué se hacen. Estos aspectos son esenciales para entender cómo funcionan los algoritmos en la vida cotidiana y cómo pueden afectarnos.

Esa capacidad de la inteligencia artificial (en tanto que recurso tecnológico) para transformar las experiencias humanas, fuelo que despertó, en un inicio, el interés de la industria turística. De alguna manera, supuso un gran salto cualitativo respecto a las llamadas tecnologías de la información y la comunicación (TIC), las cuales ya habían sido ampliamente adoptadas en muchos destinos turísticos con el objeto de hacer más eficientes los servicios, ampliar el abanico de imaginarios y crear experiencias más personalizadas para el turista. La geolocalización, la realidad aumentada, la realidad virtual o herramientas de gestión del tipo Customer Relationship Management (CRM) fueron fundamentales en lo que se denominó “destinos turísticos inteligentes”.

La inteligencia artificial supone un salto de escala y lógica respecto a aquello. Si lo pensamos en relación al viaje, sería como pasar del automóvil privado a Hyperloop. En realidad, ya hace un tiempo que convivimos con ella: los traductores o los chatbots en atención al cliente o en los servicios de venta y reservas son tal vez las funciones más populares de la inteligencia artificial aplicada al turismo. Hay otros usos menos conocidos pero muy extendidos también, como las aplicaciones para modificar precios automáticamente según demanda y disponibilidad (lo que se conoce como precios singularizados), las que gestionan situaciones de overbooking o las que ayudan a reconducir el flujo de turistas a zonas menos congestionadas (Koniaforo). Y luego hay otro conjunto aún en desarrollo, pero con un enorme potencial: aplicaciones para analizar la satisfacción de los turistas ante un servicio y diseñar ofertas personalizadas para fidelizar clientes descontentos (Pangeanic), aplicaciones que estudian el comportamiento humano en espacios públicos (Bee the Data) o las que analizan las tendencias en cada etapa del viaje para definir estrategias de marketing acordes (Mabrian). Estos ejemplos tienen como fin servir a las empresas en la toma de decisiones en términos de negocio, seguridad y control.

El desarrollo de estas herramientas plantea una serie de escenarios novedosos. Por ejemplo, el turista ya no solo interesa por su potencial consumo si no también por su capacidad como agente directo de marketing. Con el uso de un sinfín de aplicaciones, los turistas generan datos, producen imágenes e identifican atractivos que, posteriormente, serán reintroducidos en el mercado como nuevos productos turísticos listos para ser monetizados. El turista deviene así un trabajador del turismo en tanto que produce un valor de cambio. Con ello, además, las empresas pueden conocer los intereses y las motivaciones de los turistas sobre el terreno, y ofrecer experiencias personalizadas. Las ofertas clásicas de “turismo cultural”, “turismo deportivo”, “turismo familiar” o ”turismo de aventuras”, saltan por los aires y derivan en una oferta hipersegmentada que puede modularse automáticamente según elementos tan dispares como el clima, el estado anímico o el estado físico. Todo esto, como es de suponer, origina oportunidades de innovación, diferenciación y producción de valor añadido. En definitiva, desde el punto de vista de la industria, la inteligencia artificial está siendo útil para agilizar los servicios, cuantificar la satisfacción de los turistas, mejorar la toma de decisiones, reducir los márgenes de error y comprender las preferencias y necesidades de los clientes. Y todo ello, promoviendo nuevas y atractivas oportunidades laborales que dejen de lado las tareas físicas, repetitivas o peligrosas.

La normatividad humana puede ser fácilmente reconfigurada de acuerdo con modelos algorítmicos. | Imagen creada con Copilot por Sergio Yanes y Renan Moraes.

El turismo es un sector que no contempla problemas de carácter ético en cuanto al uso de inteligencia artificial. En ningún caso se plantean cuestiones de orden discriminatorio, como sí sucede con ámbitos más “duros”, como la sanidad, la educación o la propia libertad. Aquí no se vislumbran situaciones “delicadas” que deriven en perjuicios hacia cierta población. Aquí no hay individuos con riesgo a ser detenidos por cumplir con un determinado tipo de perfil étnico, personas que son marcadas automáticamente con un diagnóstico de salud mental o familias a las que se les deniegan subsidios por no encajar en el orden lógico-matemático de un aplicativo de Servicios Sociales. Cuando hablamos de turismo, las innovaciones tecnológicas se vinculan exclusivamente a la mejora de la calidad del servicio, la satisfacción del turista y al impacto en la rentabilidad del negocio. La inteligencia artificial ayuda a estas empresas a trabajar y a progresar de forma más inteligente. ¿Qué puede tener de malo?

Como suele suceder en estos casos, fueron las organizaciones civiles de defensa de los derechos humanos las primeras en alumbrar los peligros de la inteligencia artificial y mandar un mensaje de alerta. A parte de la más divulgada relación entre el uso de algoritmos y la vulneración de derechos básicos, se han puesto sobre la mesa al menos tres cuestiones más, que, en el caso que nos ocupa, son perfectamente aplicables:

  • Opacidad. Las aplicaciones que operan mediante algoritmos son deliberadamente opacas. Funcionan de acuerdo a una lógica de caja negra, es decir, no permiten conocer cómo y porqué el procesamiento matemático de los datos genera determinadas decisiones.
  • Monopolio privado. El desarrollo actual de inteligencia artificial lleva asociada la concentración privada de la propiedad de los datos y de los derechos de autor de los algoritmos. Reproduce el orden monopolista de las grandes empresas capitalistas.
  • Relato. El interés económico privado está marcando las pautas de la narrativa que construye la opinión pública en torno a la inteligencia artificial. Esta narrativa suele llevar asociada un alto grado de lo que podríamos denominar technowashing, es decir, la construcción de una imagen pública de progreso y responsabilidad ética que esconde los impactos sociales y legales de la inteligencia artificial, pero también sus defectos y limitaciones. Es el caso, por ejemplo de ChatGPT, una herramienta que como señalan ya algunos investigadores, está mucho más cerca de ser una “calculadora de palabras” que una máquina inteligente.

A la luz de estos posicionamientos críticos, en 2018 la Comisión Europea encargó la redacción de la guía Directrices éticas para una IA fiablepara establecer los principios y requisitos de una inteligencia artificial ética. Se desarrollaron cuatro principios fundamentales: respeto de la autonomía humana, prevención del daño, equidad y explicabilidad. A través de ellos, se aboga por el control y la regulación en cuestiones como, las decisiones de los sistemas de inteligencia artificial; la administración y transparencia de los datos (acceso a la información que recogen sobre uno mismo); su consistencia (solidez técnica);  los sesgos (de clase, de género, por aspecto étnico…) [1];  la capacidad de vigilancia y monitoreo de espacios públicos o privados, de forma individual o masiva; las responsabilidades ante situaciones que vulneren derechos de cualquier tipo.

Aunque el relato dominante defiende que la inteligencia artificial en sí misma no tiene valores éticos, no hay duda de que se puede diseñar y utilizar la inteligencia artificial de manera coherente con la justicia social mediante prácticas y políticas adecuadas. La tecnología –con su ideología y su ética particular– determinará el tipo de turismo que tendremos en el futuro, así como buena parte de las relaciones sociales, económicas, políticas, laborales o medioambientales que intervendrán. Hagamos o no uso individual de las aplicaciones que llevamos insertadas en nuestros dispositivos móviles, los algoritmos configuran ya nuestro comportamiento social en todas las etapas del viaje. Esto abre un escenario nuevo en cuanto al sentido común con el que nos gobernamos y con el que se gobierna el mundo cotidiano del turismo. Comprender cómo, dónde y a través de qué opera la inteligencia artificial, será primordial para entender un poco mejor la persuasión del mundo -y del turismo- que está por llegar.

¿Qué sucede si le preguntamos a la propia inteligencia artificial por los impactos negativos de su desarrollo en el turismo? He hecho la prueba con ChatGPT y ha respondido lo siguiente:

 

La inteligencia artificial aplicada al turismo puede tener impactos negativos en diversos aspectos, entre ellos:
Desempleo: La utilización de algoritmos de inteligencia artificial en el turismo puede perpetuar la explotación de los trabajadores alimentando la precariedad laboral y la explotación en una industria ya conocida por sus malas prácticas laborales. La automatización de tareas en el sector turístico puede llevar también a la pérdida de empleos y a una disminución en la demanda de trabajadores humanos.
Pérdida de personalidad y autenticidad: La dependencia en la tecnología y la automatización puede hacer que se pierda la personalidad y autenticidad de los destinos turísticos.
Desigualdad económica: El uso de la inteligencia artificial en el turismo puede perpetuar la desigualdad económica al discriminar a las personas con pocos recursos y habilidades tecnológicas.
Problemas de privacidad y seguridad: La recopilación y el almacenamiento de datos personales de los turistas pueden ser vulnerables y sufrir ataques cibernéticos.
Efectos negativos en el medio ambiente: La tecnología y la automatización en el turismo pueden tener efectos negativos en el medio ambiente, especialmente en destinos turísticos altamente concurridos.
Y continúa… la automatización de ciertos aspectos del turismo a través de la inteligencia artificial puede limitar la capacidad de los individuos y las comunidades para tomar decisiones y controlar sus propios destinos. En su lugar, estos aspectos son controlados por empresas y sistemas tecnológicos, lo que socava la autonomía individual y colectiva.

 

Como puede apreciarse, ChatGPT no tiene excesivos problemas a la hora de anunciar los principales efectos perniciosos de la IA aplicada al turismo. Otra cuestión es el cómo desarrolla cada uno de esos puntos o qué tipo de análisis hace sobre casos concretos. Si le pedimos que amplíe, por ejemplo, qué efectos laborales tiene, créanme que lo máximo que ofrecerá será un texto plano, complaciente, redundante, lleno de lugares comunes y muy lejos de los análisis hechos sobre el terreno. Es cierto que ChatGPT es tan solo una herramienta más del entorno IA. Aún así, es un buen ejemplo para observar sus limitaciones e incapacidades.

Trataré de explicar ahora con más detalle qué aspectos considero claves para una aproximación crítica a la IA. De forma premeditada, no siempre haré referencia explícita al turismo. En un tema tan complejo y amplio como este, es importante que el foco en el caso concreto no esté reñido con una mirada atenta a los fundamentos que construyen y legitiman la IA más allá del turismo.

La réplica y el hiperrealismo adquieren nuevos sentidos con el uso de inteligencia artificial. Abre nuevos horizontes para el urbanismo y la planificación turística de la ciuda.  | Imagen creada con Copilot por Sergio Yanes y Renan Moraes.

La inteligencia artificial no es inteligente

Un primer asunto para considerar es el llamado “minado de datos”. Se le denomina minado de datos o data mining, al proceso de descubrir patrones, tendencias o información relevante en conjuntos de datos grandes, complejos y sin orden aparente, mediante el uso de técnicas y algoritmos computacionales. Ahora bien, se comete un error si se piensa que los datos se minan igual que se mina el coltán. Me explico: en realidad, los datos no “se minan”, los datos “se producen”. El minado de datos lo que hace es materializar datos para luego almacenarlos en la “nube” y volver a desmaterializarlos. Los datos no están ahí para ser recolectados, los datos deben ser creados, si no, no existen. Por lo tanto, sería más acertado referirse a estas técnicas como “cultivo de datos”, pero tal vez eso sea mucho pedir.

Entonces, ¿qué es un dato y porqué es importante tener claro que los datos no se minan/recogen como se suele afirmar? Un dato es una unidad básica de información que puede ser numérica, textual, o de otro tipo, y que se utiliza para representar hechos, observaciones o características en un contexto determinado. Desde el marco mental de la IA –que es el de la ingeniería y las ciencias duras– a través de los datos podemos extraer cierta información sobre comportamientos humanos o no humanos. Esta idea está tan asentada, que incluso el físico y empresario Chris Anderson, llegó a afirmar que la capacidad de trabajar con datos masivos nos había acercado a lo que él mismo denominó “el fin de la teoría”, esto es, a la obsolescencia misma del método científico. Si los datos están “ahí fuera” (¡error! ¡no lo están!) y poseen la capacidad de dar cuenta de una determinada realidad, no hay necesidad de disponer de una teoría para llegar a conocer esa realidad. Este positivismo exacerbado y antihumano (Lanier, 2011) defiende que si los datos son lo suficientemente numerosos, se puede explicar y conocer el mundo de forma directa. Su postura representa a todas luces el tipo de violencia epistémica que caracteriza al mundo de la IA en el actual contexto neoliberal.

En base a esta premisa totalitaria, las grandes plataformas son capaces de realizar experimentos constantemente. ¡Su base de datos es “toda la muestra”! Es decir, no hay datos que queden por fuera. Por ejemplo, pueden basar sus resultados en meras correlaciones sin necesidad de conjeturas basadas en contextos concretos y empíricos, como hacemos los humanos (Larson, 2022) o pueden realizar mediciones de impacto sin recurrir a un grupo de control. Aunque esta forma de proceder no tiene validez metodológica alguna, está plenamente legitimada en el campo de los negocios turísticos. No hay tales cosas como las teorías y las hipótesis, sólo hay datos, ceros y unos. Se trata de la doctrina Thatcher llevada a la creación de datos y la ingeniería social. Y he aquí, una de las primeras enmiendas a la totalidad: elaborar datos sobre el comportamiento de los turistas no es entender el turismo (el bosque no es la suma de todos los árboles). El turismo es algo más que la suma de todos los intereses y las motivaciones individuales de los turistas.

Entonces, si la IA no es inteligencia, ¿qué es?

Explicaba E. P. Thomson que, cuando a principios del siglo XIX se instalaron en Inglaterra los primeros relojes para monitorear el tiempo de trabajo de los obreros industriales, los dueños de las fábricas no tardaron mucho en atrasar sus agujas y modificar el tiempo real dedicado a la producción (Thomson, 1967). En ese instante quedó patente que la propiedad del medio técnico otorgaba el poder para manejarlo a su antojo. El reloj en las fábricas se convirtió en un mecanismo más del dominio de clase. La actual aceleración de los procesos de producción capitalistas (Harvey, 2004) ha encontrado un aliado poderoso en la IA. Su capacidad para automatizar tareas, analizar grandes conjuntos de datos y optimizar operaciones empresariales, ha permitido imprimir aún más velocidad a una economía que llevaba ya décadas funcionando las 24 horas del día y los 7 días de la semana (Crary, 2013). El mercado funciona, aún más, si cabe, en modo piloto automático.

La industria del turismo está experimentando también una profunda transformación impulsada por esta “aceleración de servicio ininterrumpido”. Como hemos visto, la IA desempeña un papel crucial en la automatización de todo tipo de servicios turísticos, desde la reserva de vuelos y hoteles hasta la planificación de itinerarios; los turistas pueden acceder a servicios y asistencia a tiempo real y en cualquier situación. Cuando se impone la velocidad, la demanda de los consumidores se satisface con una ágil y constante producción y entrega de servicios.

Pero entonces, si la IA no es inteligente, ¿por qué la forma en la que existe nos debería preocupar? La IA no va sobre el mundo, va sobre el modo de extracción y acumulación capitalista. Y en el caso del turismo esto es evidente: gracias a nuestro trabajo invisibilizado y gratuito, las aplicaciones y plataformas son más eficientes modelando nuestras conductas y, simultáneamente, pueden rentabilizar con mayor éxito esas mismas conductas. Es lo que el economista francés Cédric Durand ha denominado como “tecnofeudalismo”. Cuanto más tiempo pasamos usando aplicaciones, más información personal les otorgamos a sus algoritmos y más precisas son sus recomendaciones y ofertas (Fuchs y Fisher 2015). El poder y control que han acumulado las plataformas sobre la distribución de servicios turísticos, les permiten imponer tarifas y condiciones que afectan tanto a los proveedores de servicios como a los turistas. La clave es esta: se producen datos y se crea una realidad a medida de esos datos.

En el entorno digital actual, la información que creamos y compartimos en línea adquiere un poder muy significativo. Esta información, alimentada por nosotros a través de nuestras acciones y decisiones en plataformas de todo tipo, se convierte en un recurso con el que las empresas y sus algoritmos trabajan. A medida que estos algoritmos procesan y analizan esta información, la utilizan para influir en nuestras experiencias en línea, determinando lo que vemos y cómo interactuamos en la web. Este proceso no se basa en una comprensión profunda y virtuosa de la sociedad, sino más bien en la creación de una realidad digital que impone una visión particular del mundo. En otras palabras, las tecnologías y algoritmos no interpretan de manera altruista o imparcial la realidad social, sino que producen una versión de la realidad que se adapta a sus propios objetivos, agendas e intereses [2]. Esta realidad generada puede ser limitada, sesgada o parcial, y como individuos, nos encontramos obligados a interactuar con ella y ajustarnos a sus términos. En el mejor de los casos, debemos adaptarnos a la realidad que se nos presenta, y en el peor, a luchar por nuestra autonomía y supervivencia en un entorno digital altamente restrictivo.

Los algoritmos simplifican y comprimen la realidad en datos manejables –la aplanan–, lo que a su vez influye en la forma en que pensamos y nos relacionamos con el mundo que nos rodea (Strehovec 2013). Google Maps es un buen ejemplo de ello. En un futuro cada vez más interconectado, todo hace pensar que servicios como Google Maps desempeñarán un papel esencial en la forma en que planificamos y navegamos por nuestras vidas cotidianas. Sin embargo, a medida que avanzamos hacia esta era de información ubicua, es crucial considerar cómo Google Maps y aplicaciones similares podrían influir en nuestra toma de decisiones, y en particular, cómo podrían condicionar los itinerarios que seguimos en nuestros desplazamientos en lugares que nos son ajenos y en los figuramos, por ejemplo, como turistas.

La inteligencia artificial posibilita que el mapa deja de ser una mera representación geográfica. | Imagen creada con Copilot por Sergio Yanes y Renan Moraes.

Hoy en día, estas aplicaciones se basan en criterios como la distancia, el tiempo y la accesibilidad para ofrecer rutas y sugerencias de navegación. Sin embargo, es incuestionable que en un futuro veremos un cambio hacia un enfoque más personalizado y orientado a la información, donde nuestra posición económica, nuestros gustos y nuestros consumos se conviertan en factores determinantes en la recomendación de rutas. La personalización extrema de nuestras rutas podría llevar a un aislamiento aún mayor en burbujas de información, donde nuestras experiencias se limiten a lo que ya conocemos y nos gusta. Además, existe un riesgo real de que la información recopilada se utilice para fines de publicidad dirigida, lo que podría aumentar la desigualdad de trato hacia los consumidores. A pesar de ser fácilmente manipulables con un poco de ingenio humano, la creciente influencia de estas aplicaciones en nuestras vidas plantea interrogantes fundamentales sobre quién controla la información, quién se beneficia de ella y hasta qué punto estamos dispuestos a permitir que los algoritmos tomen decisiones importantes en nuestro nombre.

Si pensamos, por ejemplo, en el impacto de la IA sobre el patrimonio cultural, un aspecto que debería llamarnos la atención es su lógica de categorización. ¿A qué me refiero? A que todo aquello que no está datificado (como, por ejemplo, la memoria oral, la ritualidad o la espiritualidad) queda fuera y es desechado por el algoritmo. Si las políticas patrimoniales –como tantas otras– se construyen y se fijan a través de la automatización, una parte de ese patrimonio humano será invisibilizado y, probablemente, acabará desapareciendo o sometido a políticas de rentabilización económica. La datificación (procesar información hasta convertirla en datos) es de por sí sesgada, siempre se decide qué se datifica y qué no, y en qué formato. Se crean categorías y una categoría es siempre una limitación, un encajonamiento que deja fuera la complejidad del patrimonio. La complejidad no se puede captar con una simple lista de categorías. La cultura o el patrimonio no es traducible al mundo matemático. Un templo no es 20% maya, 40% edificio y 10% de piedra. Esta forma de programar es muy esencialista y muy europea. Si, la lógica de la categorización es eurocéntrica y humanocéntrica. Es profundamente individual y no reconoce que hay diferentes dimensiones de lo real. No es la solución a la tecnología que se está desarrollando, es el problema.

El problema es mucho más profundo que la pérdida de personalidad, singularidad o particularidad de los destinos. La afectación no solo recae sobre el lugar, entendido este como recurso turístico, es decir, como destino, sino que impacta de pleno sobre su potencial sociocultural. Si alguien piensa que la IA –tal como hoy existe– puede ser una oportunidad para la recuperación o conservación de idiomas en peligro de extinción, ecosistemas, conocimientos o técnicas vernáculas de cualquier tipo, creo, humildemente, que está muy equivocado. Que la IA sea una oportunidad para todo esto, es el reflejo de lo efectiva que llega a ser su propaganda y su techowashing. La relación asumida entre la idea de progreso y la idea de tecnología es una idea –valga la redundancia– profundamente ideológica.

Los dilemas críticos son abundantes. Como decía antes, hoy ya es posible establecer diferencias de precio en los servicios y productos, discriminando según el poder adquisitivo de las personas y otros aspectos de sus contextos inmediatos que han quedado plasmados en historiales de compras y otros indicadores que surgen de su rastro en internet (donde siempre estamos conectados [3]). A menos que se regule, esta práctica de precios dinámicos y personalizados conducirá a una segmentación económica singular, donde un producto tenga tantos precios como personas concretas interesadas en adquirirlo. De esa manera, las empresas siempre podrán vender al mayor precio posible basándose en el salario de la persona, su estado de ánimo, el momento del día que haga la compra, etc. Esto tiene grandes implicaciones para el tipo de gasto “despreocupado” que suele caracterizar al turismo. Las recomendaciones generadas por las empresas de servicios turísticos estarán sesgadas –algunas ya lo están– por criterios de clase, raza, género u otros factores, lo que dará lugar a la creación de burbujas o guetos turísticos, segregando a los viajeros en función de estos u otros ejes de intersección. Estos apartheids de la industria turística, podrían moldear las interacciones y las experiencias en formas no deseadas, reforzando así todo tipo de desigualdades y discriminaciones. Que no nos sorprenda nada de esto, la dependencia tecnológica de los turistas a la hora hacer turismo, permite estas y otras muchas formas de ingeniería social. Más cuando su estado de relajación social deja las puertas abiertas de par en par para cualquier tipo de intervención sobre ellos.

En definitiva, la evidencia de que los sistemas automatizados ya están ejerciendo influencia sobre nuestro espacio de información, deformando ciertos valores sociales e instituciones políticas y culturales, es innegable. Y como también parece evidente, es más que improbable que las fuerzas del mercado se ocupen de atajar este tipo de amenazas. Las entidades responsables de la construcción de sistemas de inteligencia artificial rara vez asumen la responsabilidad de los perjuicios sociales que surgen de su uso, y su motivación para implementar medidas de protección y prevención adecuadas es nula. En muchos destinos turísticos, las regulaciones de las administraciones pueden verse limitadas, precisamente, por la acción y la influencia de las empresas tecnológicas.

Hay que gobernar los algoritmos y hay que hacerlo sin rodeos. Es imperativo un control público y estatal efectivo para garantizar que las empresas privadas no tengan el poder de recopilar, almacenar y comercializar datos de manera indiscriminada. La regulación y supervisión pública deberían asegurar que los sistemas de IA se desarrollen y se utilicen de manera ética y en beneficio del bienestar común, evitando los riesgos que surgen cuando quedan en manos del mercado. Los datos agregados, por poner un caso, deben ser públicos y deben estar al servicio de políticas públicas. El objetivo no es otro que la inteligencia artificial acabe siendo una herramienta segura y beneficiosa para la sociedad en lugar de una amenaza automatizada.

¿Qué lugar ocupa el deseo y la imaginación en la nueva subjetividad humana? | Imagen creada con Copilot por Sergio Yanes y Renan Moraes.

Afirma Bifo Berardi (2017) que el desarrollo de la inteligencia artificial –con sus flujos frenéticos de información– ha promovido la sustitución de la voluntad política por un tipo de subjetividad humana basada en respuestas automatizadas, incapaz de percibir, imaginar y desear más allá del sentido común que impone el algoritmo. No solo nos susurra al oído qué debemos pensar, también nos limita la capacidad de pensar e imaginar futuros alternativos a su verdad. Esto es importantísimo. Con la inteligencia artificial, las tecnologías digitales ya no son solo herramientas de almacenamiento, indexación o tráfico de información. A partir de la interpretación automatizada de situaciones, devienen entidades capaces de enunciar verdades que los humanos no podemos ver (Sadin, 2020). La IA produce discurso y busca acaparar la verdad lidiando una batalla entre el procesamiento masivo de datos y la capacidad analítica del individuo. El objetivo, desarmar toda posibilidad de réplica humana. En este nuevo régimen se juega la vocación humana de habitar el mundo y la construcción misma de alternativas al capitalismo (Fischer, 2016).

¿Qué otros mundos y qué otros futuros podrían crearse si pusiéramos otras prioridades en el centro de la producción tecnológica, en lugar de los valores de una élite económica y cultural? La tecnología, en lugar de consolidar un conjunto limitado de perspectivas, podría utilizarse para dar forma a realidades múltiples capaces de reflejar una mayor diversidad de valores y necesidades. Una IA desarrollada en sentido contrario a las estructuras de poder y privilegio actuales podría convertirse en una fuerza aliada en la consolidación de un turismo postcapitalista. Dominar el algoritmo para ponerlo al servicio de horizontes emancipatorios debe formar parte de ese proyecto.

 

Notas:
[1] La IA está plagada de errores, sesgos y prejuicios, y es eso así, porque como pasa con los humanos, siempre “habla” desde algún lugar. El sesgo no es simplemente un error, sobre todo es un atajo cognitivo que moldea la visión del mundo según una serie de prioridades predefinidas, a menudo alineadas con los valores e intereses de quien produce -material e ideológicamente- la tecnología.
[2] En un mundo donde los algoritmos controlan lo que vemos y experimentamos en plataformas como Twitter/X, se hace evidente que el capitalismo ejerce un dominio significativo sobre la información y la percepción social. Estos algoritmos utilizan una multitud de factores para determinar qué contenidos aparecen en nuestro timeline, y, como resultado, Twitter/X se convierte en una suerte de filtro que decide qué vemos y descubrimos en su red social. En lugar de ser una moderna plaza de pueblo, se convierte en una entidad que opera conforme a sus propios intereses y, por tanto, moldea nuestras interacciones y experiencias en Internet (O´Neil 2018, 223).
[3] ¡Y siempre estamos conectados! La operatividad de las cámaras de videovigilancia en las calles, de los registros de entrada y salida en medios de transporte, de las operaciones bancarias, del uso de equipamientos como gimnasios, bibliotecas o centros de salud… hacen inservible ya pensar en un tiempo-espacio dentro o fuera de la red. La red está en nosotros, inserta en nuestros cuerpos, en nuestros actos, registrando lo que hacemos, decimos o incluso pensamos (en voz alta).
Referencias:
Berardi “Bifo”, F. (2017). Fenomenología del fin. Sensibilidad y mutación conectiva. Caja Negra.
Crary, J. (2013). 24/7: Late capitalism and the ends of sleep. Verso.
Fisher, M. (2016). Realismo capitalista: ¿No hay alternativa?. Caja Negra.
Fuchs, Ch. y Fisher, E. (eds.) (2015). Reconsidering value and labour in the Digital Age. Palgrave Macmillan.
Harvey, D. (2014). El nuevo imperialismo. Akal.
Lanier, J. (2011). Contra el rebaño digital. Debate.
O´Neil, C. (2018). Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia. Capitán Swing.
Pariser, E. (2017). El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos. Taurus.
Sadin, E. (2020). La inteligencia artificial o el desafío del siglo. Caja Negra.
Thompson, E. P. (1967). Time, work-discipline, and industrial capitalism. Past & Present, 38, 56-97. 

 

 

 

Noticias Recientes