Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Eliza explora los peligros de la terapia digital a pedido

Eliza explora los peligros de la terapia digital a pedido 2

Poder acceder a una atención de salud mental sin estrés puede ser un desafío.

Eliza, la primera novela visual de Zachtronics, el desarrollador Exapunks y Opus Magnum, explorando la realidad donde la terapia digital y la IA se combinan para completar la atención médica a escala. Esta es una desviación de otro título de estudio, que se siente más como un juego de rompecabezas para programadores. En cambio, el nuevo título Zachtronics es un juego de historia que actúa completamente basado en el sonido, donde los jugadores desempeñan el papel de personajes involucrados en una historia que cambia según sus decisiones.

La tecnología titular en los juegos es la terapia de IA que escucha a los pacientes y utiliza el aprendizaje automático para responder con recomendaciones utilizando el lenguaje de conversación. Piense en ello como un chat sofisticado que puede ver en un sitio de comercio electrónico, pero para la salud mental.

Esa no es una idea tonta. Algunas compañías del mundo real han adoptado un enfoque moderno al permitir que los pacientes envíen mensajes de terapeuta de la manera que deseen. Así es como lo hago, pero siempre encuentro que el proceso no es personal. La naturaleza asincrónica de la discusión siempre me hace sentir desconectado de mi terapeuta. No poder hablar con alguien directamente absorbió la empatía que realmente necesitaba de la conversación. Me hace preguntarme si agregar una capa digital a la terapia es más una barrera que una ayuda.

Dos mujeres, una con una chaqueta rosa y otra con una chaqueta vaquera hablando entre sí en una oficina limpia y luminosa. "Data-upload-width =" 1920 "src =" https://tutomoviles.com/wp-content/ uploads / 2019/08 / 1566050068_611_Eliza-explore-danger-digital-therapy-on-demand.png Mi personaje de la derecha, Evelyn, habla con su compañero de trabajo en el centro de asesoramiento de Eliza, Zachtronics.

Pero la sesión con Eliza fue especial porque, en lugar de la máquina que emitió sus recomendaciones con voz robótica, Eliza utilizó "representantes", humanos reales, que leían las reacciones de IA a sus pacientes. Esto tiene la intención de agregar un toque personal a la sesión. Esa es una idea interesante; Tecnología avanzada que pretende reemplazar las conexiones personales que aún dependen de los humanos para ser efectivas. Una máquina puede reemplazar a tantos terapeutas como la CPU pueda manejar, y las palabras mismas pueden ser transmitidas por cualquiera que pueda leer el guión.

Controlé a Evelyn, una ex ingeniera de Eliza que acababa de regresar de una ausencia de tres años en el trabajo. Después de convertirse en una de las personas detrás del diseño de IA, volvió al software, no como programador, sino como una de las herramientas proxy. Comprender por qué regresó a su creación en la planta baja se revela lentamente a lo largo de la historia.

Al igual que otras novelas visuales, hablo principalmente con varios personajes como elementos principales del juego. Mis respuestas en la conversación me ayudaron a determinar cómo interpreté el papel de Evelyn, y las preguntas que hice me ayudaron a aprender sobre otros personajes. Esto es estándar para el género de novela visual, pero Eliza presentando una alineación interesante.

Como representante, participé en varias sesiones de asesoramiento individual. Esta promesa es una de las pocas veces en un juego donde no tengo control sobre lo que digo. La relación de Eliza con el proxy fue diseñada así.

Un joven triste con una chaqueta gris rodeado de una extensión de texto e información digital sobre sus signos vitales. "Data upload-width =" 1920 "src =" https://tutomoviles.com/wp-content/uploads/ 2019/08/2015 1566050070_484_Eliza-explore-danger-digital-therapy-on-demand.png Eliza AI utiliza datos de conversación para ayudar a los pacientes de Zachtronics

Cuando comenzó mi sesión en mi pequeña oficina, la pantalla de inicio barrió la pantalla que llevaba Evelyn. Piense en ello como Google Glass, pero veo mucha información sobre cada paciente, no mensajes de texto o indicaciones de manejo. La pantalla a mi izquierda muestra cómo Eliza interpretó todo lo que dijo mi paciente, categorizando en gran medida los sentimientos de las palabras en escalas binarias positivas y negativas. A la derecha, los cuadros complejos muestran variaciones en los patrones de habla de mis pacientes, sus frecuencias cardíacas, cuánto sudan y más.

El software de Eliza considera todos estos datos cuando escucha a sus pacientes, pero ver esta información sola no es un problema. No se me permite tomar una decisión informada. Mi único trabajo es leer el guión que me dieron e intentar que suene humano y cálido.

Cuando una paciente llamada Maya habla sobre su incapacidad para ingresar a la industria del arte, Eliza escucha e interpreta su historia no como un viaje de un artista que lucha por salir de la oscuridad, sino como un punto de datos utilizado para recopilar respuestas que se espera que traigan más punto de datos A pesar de todo su progreso, Eliza pareció escuchar un poco a sus pacientes antes de hacer preguntas principales para que hablaran más. No veo mucha información ofrecida sobre sus problemas.

Cuando Maya se fue con palabras duras sobre cómo "nadie la quería en una fiesta de la industria" a la que había asistido la noche anterior, Eliza respondió preguntando "¿Cómo sabes que es verdad que nadie te quiere allí?"

Una mujer joven con una chaqueta amarilla se sienta en una pequeña sala de oficina con pinturas, plantas y superposiciones digitales que muestran mucho texto. "Data-upload-width =" 1920 "src =" https://tutomoviles.com/wp-content/uploads/ 2019/08/08 1566050072_691_Eliza-explore-danger-digital-therapy-on-demand.png Eliza tomó el comentario del paciente y lo entregó como una pregunta de Zachtronics

La escritura y la actuación de voz en todas las sesiones de asesoramiento son fantásticas, y cada paciente se siente como un ser humano totalmente consciente. Su ansiedad, frustración y dolor aparecen en cada conversación. Se detienen en el medio de una oración para considerar algo antes de volver a hablar, distorsionados, atrapados y volviendo a sus puntos principales, como lo hace la mayoría de las personas al explicar cómo se sienten por primera vez.

Y cuanto más humano parece el paciente, más frustrada está cada sesión de asesoramiento. Soy un representante, así que no puedo reaccionar como los humanos ni ofrecer pensamientos sobre lo que está sucediendo. Solo puedo leer guiones. Incapaz de reaccionar sobre cómo quiero crear una lucha interna en mí mismo como jugador que finalmente se vuelve importante para la historia del juego.

El viaje de Evelyn con Eliza teje un pasado complicado que intenta dejar atrás y finalmente toma la gran decisión que necesita sobre su futuro. Afortunadamente Eliza terminando con la capacidad de reproducir cada capítulo. La oportunidad de tomar esta ruta diferente fue muy importante al final del juego, cuando finalmente me dieron la opción de desviarme del guión de Eliza, algo que ya sabía no hacer por horas Poder hacerlo es un punto de inflexión importante en el juego, y es interesante ver cómo mi sesión de asesoramiento juega de manera diferente para poder responder a mi paciente como Evelyn, no como Eliza.

Llegué a este juego imaginando que sería una prueba inteligente para la Prueba de Turing, un escenario diseñado para ver si una máquina puede pasar por la inteligencia humana. En cambio, exploro los posibles resultados de tratar de tratar los problemas de salud mental a escala. Eliminar a la humanidad del acto de ayudar a los humanos a superarla es una forma distópica de resolver problemas; ElizaEsta historia destaca el potencial de las trampas para generalizar a un proceso muy personal.