¿IA inclusiva o deseo empaquetado? El auge de los chats gay con inteligencia artificial y el debate sobre derechos, privacidad y estereotipos

La expansión de los companions de inteligencia artificial ya no puede leerse solo como una curiosidad tecnológica. Lo que está en juego es algo más profundo: cómo se comercializan la intimidad, la escucha y el deseo en entornos digitales que aprenden de nuestras preferencias y nos devuelven una versión personalizada de aquello que buscamos. En ese terreno, la aparición de espacios específicamente dirigidos a usuarios gays no es una anécdota de nicho, sino una señal de madurez de mercado. La industria ya ha entendido que la diversidad sexual no solo es una realidad social, sino también un segmento de producto. Y ahí empieza el debate: cuando una plataforma ofrece conversación, fantasía y validación a medida, ¿está ampliando espacios de libertad o empaquetando el deseo queer para hacerlo más rentable?
La pregunta importa porque no partimos de un terreno neutral. La propia Tercera Información recogía en 2025 una idea clave de Idoia Salazar: la IA no discrimina por sí sola; lo hacen los humanos a través del diseño, los datos de entrenamiento y las decisiones empresariales que hay detrás. La responsabilidad, decía, recae directamente en quienes desarrollan y utilizan estos sistemas, que deben asegurarse de que han sido entrenados con datos de calidad y libres de sesgos. Aplicado al ámbito de los chats gays con IA, eso obliga a mirar más allá del envoltorio inclusivo. No basta con abrir una categoría LGBT+ o con añadir personajes masculinos deseables: la cuestión es qué imaginario de lo gay se está produciendo, qué cuerpos aparecen, qué roles se repiten y qué fantasías se convierten en norma.
En ese punto, plataformas como https://es.joi.com/characters/gay sirven como ejemplo útil para observar el fenómeno. La página de Joi se presenta como contenido para mayores de 18 años, agrupa personajes bajo etiquetas como LGBT+ y Gay, y define el servicio como un espacio de “descubrimiento LGBTQ+” donde el usuario puede personalizar apariencia, personalidad y escenarios de rol. También afirma ofrecer protección de datos, cifrado, chats privados y anonimato, además de la posibilidad de solicitar imágenes generadas por IA dentro de la experiencia. No es un detalle menor: el producto no se vende solo como erotismo conversacional, sino como una mezcla de personalización, privacidad y fantasía sin juicio, una combinación muy reconocible en la economía afectiva digital contemporánea.
Ese tipo de propuesta puede tener una lectura positiva que sería un error despreciar. Para muchos usuarios LGTBI+, y especialmente para quienes han vivido vigilancia, vergüenza o aislamiento, un entorno donde explorar deseo, identidad o conversación sin exposición pública puede resultar liberador. La investigación reciente sobre AI companions apunta, de hecho, a beneficios potenciales en bienestar subjetivo, con asociaciones positivas especialmente visibles entre personas que declaran altos niveles de soledad; al mismo tiempo, los autores subrayan que estos diseños deben promover el bienestar sin deteriorar el compromiso social en el mundo real. Dicho de otro modo: la experiencia puede aliviar, acompañar o sostener, pero no debería confundirse con una respuesta suficiente a la precariedad afectiva o al aislamiento estructural que padecen muchas personas queer.
Ahí aparece la primera tensión política de fondo. Un chat gay con IA puede funcionar como refugio parcial, sí, pero también puede convertirse en una forma especialmente eficaz de monetizar carencias sociales. Si la plataforma siempre responde, siempre valida y siempre adapta su tono a lo que el usuario desea oír, el vínculo no descansa en reciprocidad real, sino en optimización comercial de la atención. La Asociación Americana de Psicología advertía este año de que el uso frecuente de companions puede producir “deskilling” social, es decir, una pérdida o desentrenamiento de habilidades relacionales, y citaba investigaciones que alertan de una posible transformación de las normas afectivas que podría hacer menos accesible o menos gratificante la conexión entre humanos. Cuando eso se cruza con una minoría históricamente empujada a negociar su deseo en espacios vigilados, la promesa de comodidad infinita se vuelve todavía más ambigua.
También conviene preguntarse qué clase de visibilidad producen estos sistemas. La representación nunca es inocente, y menos en mercados guiados por clics, retención y fantasía. En la página de Joi conviven personajes “supportive”, “romantic”, “anime”, “activist” o “country bear”, pero también una puesta en escena muy marcada por la hipersexualización, la lógica del rol rígido y la estetización de ciertos cuerpos masculinos. Eso no invalida el producto por sí mismo, pero sí invita a una lectura crítica: cuando el imaginario gay se traduce a catálogos, etiquetas y scripts de personalidad, existe el riesgo de reducir una experiencia compleja y plural a un conjunto de arquetipos rentables. El mercado llama diversidad a veces a lo que en realidad es segmentación: no inclusión profunda, sino afinamiento comercial de estereotipos.
La regulación europea ofrece aquí un marco interesante, aunque no resuelva por sí sola el problema. La Comisión Europea publicó en febrero de 2025 sus directrices sobre prácticas prohibidas por la AI Act, subrayando que ciertas aplicaciones se consideran inaceptables por sus riesgos para los derechos fundamentales. El artículo 5 prohíbe, entre otras cosas, sistemas que manipulen de forma dañina la conducta de las personas, que exploten vulnerabilidades, o que infieran orientación sexual a partir de datos biométricos. También veta determinadas formas de reconocimiento emocional en el trabajo y la educación. Nada de esto regula directamente un chat erótico gay como tal, pero sí deja claro que Europa ya reconoce un principio básico: hay usos de la IA que cruzan líneas rojas cuando convierten la intimidad, la vulnerabilidad o la identidad en materia prima para clasificación, manipulación o control.
Por eso el debate no debería quedar atrapado entre dos caricaturas: la del entusiasmo ingenuo y la del pánico moral. Ni todo chat gay con IA es una amenaza para la vida afectiva, ni toda personalización es emancipadora por definición. Lo decisivo es cómo se diseña la relación. ¿Se fomenta autonomía o dependencia? ¿Se cuida la privacidad de forma verificable o solo se promete? ¿Se abre un espacio menos normativo o se repiten guiones de masculinidad y deseo que el mercado sabe vender bien? Incluso cuando una plataforma habla de anonimato, cifrado y directrices estrictas, sigue siendo legítimo preguntar quién fija esos límites, qué datos se conservan y con qué fines se optimiza la experiencia. La ética digital no empieza cuando algo sale mal; empieza en la arquitectura cotidiana del producto.
En el fondo, quizá la cuestión más interesante no sea si estos sistemas “son buenos” o “son malos”, sino qué revelan sobre el presente. Revelan que la soledad se ha convertido en un mercado. Revelan que el deseo queer, durante décadas desplazado o estigmatizado, hoy también se empaqueta en interfaces limpias y modelos predictivos. Y revelan, sobre todo, que la inclusión digital puede quedarse en escaparate si no va acompañada de una crítica seria sobre sesgos, derechos y poder económico. Los chats gays con IA pueden abrir espacios de juego, exploración y alivio; sería absurdo negarlo. Pero también pueden convertirse en una versión pulida de un viejo problema: ofrecer reconocimiento a cambio de datos, atención a cambio de dependencia y representación a cambio de simplificación. Ahí es donde una mirada crítica sigue siendo imprescindible.
