No digas tu misterio más profundo y oscuro para el chat de AI como chatzipt. No tienes que tomar mi palabra para esto. Tómelo del tipo detrás del modelo de IA generador más popular en el mercado.
El creador de chatzipt, el CEO de Openei, Sam Altman, planteó este problema esta semana Entrevista Este es el último fin de semana con el anfitrión Theo Von en Podcast. Sugirió que su conversación con IA debería tener la misma protección que usted con su médico o abogado. En un momento, Von dijo que una de las razones por las que dudaba en usar algunos equipos de IA porque “no sabe quién va a” es información personal.
“Creo que es comprensible”, dijo Ultman, “realmente quieres precisión de privacidad antes de usar precisión legal”.
Cada vez más usuarios de IA están tratando chats como sus terapeutas, médicos o abogados, y ha creado un grave problema de privacidad para ellos. No hay una regla de privacidad, y la verdadera mecánica de lo que le sucede a esa conversación es sorprendentemente poco clara. Por supuesto, hay otros problemas en el uso de IA como terapeutas o creyentes, como las botellas, ¿cómo pueden dar los bots o cómo pueden Fortalecer las estereotips o el estigmaEl (mi compañero Nelson Aguler compiló una lista de 11 cosas que nunca debes hacer chatzpt y por qué no))))))
Ultman es claramente consciente de los problemas aquí, y parece ser al menos una molestia. “La gente lo usa, especialmente los jóvenes lo usan como terapeutas, entrenadores de vida, tengo problemas con esta relación, ¿qué debo hacer?” Él “en este momento, si habla sobre estos problemas con un médico, abogado o médico, tiene un privilegio legal para ello”.
La pregunta surgió durante una sección de la conversación si debería haber más reglas o regulaciones alrededor de la IA. Las reglas para suprimir las empresas de IA y el desarrollo tecnológico tienen menos probabilidades de estar a favor de Washington hoy en día, ya que el Plan de Acción de IA de IA de esta semana ha sido publicado por esta tecnología, no menos, el deseo de controlar la tecnología es menor. Sin embargo, las reglas para protegerlos pueden calificarse.
Leer más: AI Essensials: Según nuestros expertos, 29 formas en que puedes hacer Jenner AI
Ultman parecía más preocupado por la falta de protección legal para agencias como él que para evitar que lanzaran conversaciones personales en el caso del caso. Abierto está ahí Objeción Solicite mantener conversaciones de los usuarios al demandar con la violación de los derechos de autor del New York Times y los problemas relacionados con la propiedad intelectual. (Publicar: GEF Davis, el principal CNET, en abril, presentó una demanda contra los OpenAI, alegó que había violado los derechos de autor de GMF Davis en la capacitación y operación de sus sistemas de IA).
“Si habla con Chatzept sobre el personal más sensible y luego un caso o lo que sea, tenemos que producirlo”, dijo Ultman. “Creo que es una lástima que yo
Véalo: El debut de los estudiantes de los estudiantes “Modo de estudio”, viola los datos de la aplicación TEA y ¿puede un perro robot proporcionar su próxima pizza? | Tecnología hoy
Tenga cuidado con lo que está diciendo sobre usted
Para usted, el problema no es tanto que el abierto es convertir sus conversaciones en una demanda. Esta es una pregunta que cree con su propia privacidad.
William Agnew, investigador de la Universidad Carnegie Mellon que formó parte de un equipo Evaluando chattabot Con respecto a sus actuaciones con preguntas como la terapia, la privacidad es un tema importante cuando se cree en equipos de IA recientemente. Incertidumbre sobre cómo funcionan los modelos, y cómo sus conversaciones están protegidas de aparecer en los chats de otra persona, esto es suficiente para dudar.
“Si estas empresas están tratando de tener cuidado con sus datos, estos modelos son bien conocidos por restaurar la información”, dijo Agniu.
Si el chatzipt o cualquier otra herramienta reorganiza la información de su sesión de terapia o preguntas médicas que hizo, puede aparecer si su compañía de seguros o alguien más interesado en su vida personal le pregunta la misma herramienta sobre usted.
Agniu dijo: “La gente debería pensar más en la privacidad y solo saber que dicen que estos chattubs son casi todo lo privado”, dijo Agni. “Se usará de diferentes maneras”.