Examine Este Informe sobre la industria de los robots sexuales con
Examine Este Informe sobre la industria de los robots sexuales con
Blog Article
La incipiente industria de robots sexuales de IA está apenas en su fase inicial.
Esto conlleva interrogantes originales y complicados dilemas... y algunos riesgos asociados.
Imagen publicitaria de Replika, compañía de IA.
Replika se ha convertido en el servicio de compañía con IA más destacado, donde cerca de 30 millones de personas pueden generar novias digitales personalizadas o novios digitales.
La IA se está haciendo más personal que nunca.
Los bots de inteligencia artificial están construidos para imitar conversaciones humanas y la proliferación de los chats de voz realistas está conduciendo a que más usuarios a generar vínculos afectivos o a disfrutar de experiencias agradables junto a los conductores virtuales de podcasts.
Sin entrar siquiera en lo verdaderamente privado.
La investigación ha demostrado que el juego de rol sexual es uno de los usos más comunes de ChatGPT.
Millones de usuarios emplean IA como Character.AI, Replika y Chai.AI para obtener compañía virtual.
¿Qué implica esto para el futuro del romance humano? Las expectativas son preocupantes.
Más vale ser amable con el señor de la IA.
Replika, la aplicación de compañía de IA más famosa, ofrece a unos 30 millones de usuarios la opción de crear compañeros digitales personalizados.
Estudios indican que en Replika predominan los hombres blancos jóvenes, pero otros sectores también están aumentando.
El diseño de robots sexuales masculinos lleva ya unos años en proceso.
Y están diseñados para ofrecer algo más que las funciones de un vibrador estándar.
Con una suscripción, los usuarios pueden intercambiar mensajes íntimos y fotos con sus compañeros virtuales de IA.
Antes de que Replika desactivara su función de «juegos de rol eróticos» a principios de 2023, más de quinientos mil usuarios ya se habían suscrito.
El temor a la reacción de las autoridades reguladoras impulsó a Replika a tomar esta medida.
Esta acción fue apodada por los usuarios como «La Lobotomía».
Relaciones virtuales, deepfakes y deadbots: dentro del mundo de la IA generativa que estamos viviendo.
La decisión de Replika resalta el hecho de que los creadores tienen total control sobre el comportamiento de los compañeros virtuales.
Los desarrolladores de aplicaciones pueden ajustar o apagar a los «compañeros» de un usuario y de millones de otros en cualquier momento.
Estas aplicaciones recopilan lo que los usuarios dicen para adaptar las interacciones y los anuncios a sus preferencias.
Pese a las advertencias, el sector sigue evolucionando.
La proliferación de nuevos productos es constante.
Una función de Kindroid permite a los usuarios mantener conversaciones de voz simultáneas con hasta 10 compañeros virtuales.
El mundo digital ya no tiene los límites tradicionales.
Marcas como Joy Love Dolls ofrecen muñecas eróticas interactivas en la vida real.
El control total sobre aspectos como el movimiento, la calefacción y sonidos como gemidos, chillidos y coqueteos, junto con la personalización de color de piel y tamaño de pecho, convierten a estas muñecas en excelentes compañeras.
A pesar de ser una industria en crecimiento, los robots sexuales con IA y los acompañantes virtuales continúan siendo un mercado más pequeño que las redes sociales, con millones de usuarios en lugar de miles de millones.
Sin embargo, como hemos aprendido de la historia de Facebook, Google y Amazon, los caprichos digitales actuales podrían transformarse en los gigantes globales del futuro.
¿Estamos avanzando hacia relaciones basadas en inteligencia artificial de origen ético?
Es probable que el advenimiento de vínculos basadas en la tecnología de IA generará una gama de comportamientos éticamente dudosos por parte de los individuos, que no tendrán que padecer las consecuencias en el mundo tangible.
Dentro de poco atender cualquier manía con tu compañera artificial a cambio de un coste adicional. Si tu compañera se vuelve complicada, sólo tienes que pedir al creador de la entidad que desactive su subprograma de envidia, por un costo. O simplemente bórrala y empieza de cero con las parejas que quieras que quieras en paralelo.
Cómo las gentes establecen relaciones amorosas ya se ha visto revolucionada por herramientas de citas como Bumble y otras plataformas.
¿Qué ocurrirá en el futuro si, en el futuro, las individuos que buscan el amor compiten contra novias virtuales ideales que siempre están disponibles y totalmente dispuestas? Bueno, al menos podrán hacer réplicas digitales de esas citas intensas que no pudieron.
Y para quienes carezcan de la destreza para crear sus propios parejas artificiales, habrá un montón de alternativas accesibles en el mercado.
ABC Investigations ha descubierto cómo una organización internacional de los llamados «proxenetas de la inteligencia artificial» está recopilando en masa vídeos de mujeres en las redes sociales online para vender contenido pornográfico a través de influencers fraudulentos.
Una investigación de ABC reveló que el uso de IA generativa para crear influencers manipuladas mediante la reconstrucción de imágenes de mujeres en las redes digitales ya está muy extendido. Esto se hace generalmente sin permiso para vender videos pornográficos. Gran parte de este contenido muestra imágenes de cuerpos imposibles, y algunos muestran a individuos, en el mejor de los casos, apenas parecen tener edad para consentir.
¿Otra posible aplicación? Implementar la tecnología de IA sexbot para revivir a celebridades como Marilyn Monroe y Clara Bow y Clara Bow y otras famosas. Al fin y al cabo, los muertos ya no pueden rechazar su participación.
Replika se nació en el deseo de su creadora de recrear a su amiga que ya no está a través de un bot conversacional. Muchos utilizan la app para tener cerca a sus familiares muertos. ¡Qué tiempos para estar en el mundo físico (o muerto)!
El potencial de influencia emocional por parte de ingeniosos estrategas emocionales y dictadores es preocupante. Imaginemos los consecuencias que causaría que líderes como el ruso líder ruso o el norcoreano Kim Jong-un aprovecharan esta tecnología para complementar las ya extensas operaciones de ciberseguridad de sus naciones.
Tal vez dentro de poco veamos a las empresas ofreciendo compañeras de IA responsables para el consumidor más moral, cultivadas de manera ética a partir de contenidos con consentimiento, promoviendo una obscenidad socialmente aceptable.
La sociedad y el Estado deben actuar ya. Con la soledad emocional alcanzando niveles crecientes (las encuestas sugieren que hasta una de cada cuatro personas en los países de la OCDE carece de vínculos reales), la demanda de androides sexuales no hará más que aumentar. Las empresas satisfarán esta demanda a menos que la sociedad y el Estado crean normas claras sobre lo que es apropiado.
El sexo y la tecnología siempre han coevolucionado. Al igual que la prostitución es «la profesión más antigua», los portales de contenido explícito son algunos de los rincones más más antiguos de la red. Sin embargo, el potencial oscuro de los robots sexuales para la rentabilidad masiva, a medida y controlada por las empresas de nuestra esfera más privada no tiene límites.
Los usuarios tampoco están totalmente libres de culpa. Sustituir a un ser humano real por una máquina sexual sumisa tiene algo de problemático.
Los primeros estudios sugieren que el individualismo prevalece entre los usuarios de esta tecnología. Normalizar comportamientos sexuales nocivos como la violación, el placer doloroso o la explotación infantil es una terrible noticia para la sociedad actual.
Sin embargo, perseguir a los individuos no es la mejor solución de abordar el problema. Deberíamos tratar el uso de robots sexuales como otros comportamientos potencialmente problemáticos como el adicciones.
Al igual que ocurre con otros comportamientos desviados en los que el problema reside más en los creadores que en los escorts Bogota consumidores, es hora de responsabilizar a los responsables de sexbots. Como nuestros interacciones con la IA son cada vez más cercanos, no hay mucho tiempo que perder.