- El CEO de Openai dice que usar Chatzpt para terapia está en riesgo de privacidad grave
- Si sus chats personales están abiertos a cualquiera de los casos del caso, se puede revelar
- Alimentar su pensamiento personal en Opque AI también son pasos arriesgados
Uno de los estímulos de tener un asistente de inteligencia artificial (AI) como Chatzipt es el que comienza a arriesgarse por las cosas que nunca se han destinado. Según el CEO de OpenAI, Sam Altman, incluye terapia y consejos de vida personal, pero puede causar todo tipo de problemas de privacidad en el futuro.
En el episodio reciente Este último fin de semana con Theo von Podcast, Ultman explicó una IA para el uso de una IA para hablar con un médico humano y una salud mental: “Ahora, si habla con un terapeuta o un abogado o médico sobre estos problemas, existen privilegios legales para esto. Hay una especialidad legal para esto. Hay una privacidad del médico, cuando tenemos la privacidad del médico, cuando estamos chatando”.
Una de las posibles consecuencias de esto es que el abierto es legalmente necesario para toser estas conversaciones legalmente si enfrenta un caso de caso, afirmó Ultman. A excepción de la privacidad legal que obtenga al hablar con un médico o un terapeuta registrado, su ansiedad personal rara vez deja de ser publicitada al público.
Ultman ha agregado que ChatZPI está utilizando así a muchos usuarios, especialmente a los jóvenes, que pueden ser especialmente arriesgados para este tipo de exposición. Pero independientemente de su edad, la conversación no es el tipo de cosas que la mayoría de las personas estarán felices de ser publicadas en el mundo amplio.
Un intento arriesgado
El riesgo de abrir para verificar sus conversaciones personales es que los usuarios de Chatzipt son solo un riesgo de privacidad de una privacidad.
También existe el problema de alimentar su ansiedad y ansiedad personal profundas como chatzipt, con la posibilidad de que pueda usarse para entrenar el algoritmo abierto y otros usuarios pueden usarse para filtrar el camino cuando se les hace preguntas similares.
Esta es una de las razones para la licencia de las versiones de cinger anillos de los Chattabots. Otra opción es una IA como LUMO, que es creada por la privacidad Stalwarts Proton y presenta el cifrado de nivel superior para proteger todo en su escritura.
Por supuesto, también hay una pregunta sobre si una IA como AI, como Chatzipt, puede reemplazar primero a un terapeuta. Aunque puede tener algunos beneficios, cualquier IA es solo datos capacitados que operan. Nadie es capaz de pensar, lo que limita la efectividad del consejo que pueden darle.
Ya sea que elija o no abrir el OpenAI, está claro que hay un Minfield de privacidad que rodea el AI Chatbott, lo que significa que la falta de privacidad o sus pensamientos más profundos están en peligro de utilizar los datos de capacitación de algoritmos involuntarios.
El terapeuta de IA es un intento significativamente menos riesgoso de requerir mucho esfuerzo y precisión antes de inscribir al terapeuta.