Impulsado por enormes datos de datos, el boom generativo de IA pide a diferentes compañías de tecnología que actualicen silenciosamente su política de privacidad y condiciones de servicio, para que puedan usar sus datos para capacitar a sus modelos de IA o leer a otras compañías para el mismo propósito.
La semana pasada, el servicio popular -servicio Wetransfer se enfrentó a la recuperación inmediata de los usuarios Después de haber revisado las condiciones del acuerdo de servicio de la plataforma para sugerir que los archivos que han sido cargados por los usuarios pueden usarse para “mejorar los modelos de aprendizaje automático”. Desde entonces, la compañía ha tratado de resolver las cosas eliminando cualquier mención de IA y aprendizaje automático del documento.
Aunque Wetransfer ha retirado su decisión, el incidente muestra que la preocupación por el usuario sobre la privacidad y la posesión de datos se intensifica en la era de la IA.
Las empresas de tecnología raspean públicamente los datos protegidos por derechos de autor de cada esquina y esquina de Internet para capacitar a sus modelos de IA. Estos datos pueden contener todo lo que ha publicado en línea, desde un tweet divertido hasta una publicación de blog bien considerada, revisión de restaurantes y selfie de Instagram.
Aunque esta eliminación aleatoria de Internet ha sido desafiada legalmente por varios artistas, fabricantes de contenido y otros titulares de derechos, también hay ciertos pasos que los usuarios individuales pueden tomar para evitar que todo lo que publiquen se usen en línea para la capacitación de IA.
A medida que más y más usuarios se han reunido para preocuparse por este problema, muchas empresas ahora tienen individuos y clientes comerciales para que su contenido se use en la capacitación de IA o se venda con fines de capacitación.
Si usted es un artista o fabricante del contenido que quiere saber si su trabajo ha sido raspado para la capacitación de IA, puede visitar el sitio web ‘¿Estoy capacitado?’, ¿Cuál es un servicio dirigido por la startup de inicio de tecnología.
La historia continúa bajo este anuncio
Si ha descubierto que sus datos se han utilizado para entrenar modelos de IA, esto es lo que puede (y no) hacer, dependiendo de la plataforma. Tenga en cuenta que, aunque muchas compañías eligen registrar a sus usuarios como estándar para la capacitación de IA, se borran los datos que ya se utilizan para la capacitación de IA o parte de los conjuntos de datos.
Trepar
Si tiene una cuenta de Adobe comercial o de la escuela, optará automáticamente por la capacitación de IA. Siga estos pasos para aquellos que tienen una cuenta personal de Adobe:
-Visite la página de privacidad de Adobe
-Scroll a la sección de análisis de contenido para la mejora del producto
-Pon el interruptor
Google Géminis
Google dice que las interacciones del usuario con su Gemini AI -Chatbot se pueden seleccionar para la revisión humana para mejorar la LLM subyacente. Siga estos pasos para darse de baja de este proceso:
La historia continúa bajo este anuncio
-Ounten Gemini en tu navegador,
-Estar a la actividad
-Seleccione el menú desplegable Reducir
-Vuur van de gemini -apps -actividad
Grano
Si tiene una cuenta X, siga estos pasos para concluir para sus datos utilizados para entrenar a Grok, el chatbot desarrollado por XAI de Elon Musk:
-Va a la configuración
-Va a la sección de privacidad, luego privacidad y seguridad
-Ount la mesa Grok
-Ceck la opción para compartir datos
En septiembre del año pasado, LinkedIn anunció que los datos, incluidos los mensajes de usuario, se utilizarán para capacitar a los modelos de IA. Siga estos pasos para evitar que sus nuevos informes de LinkedIn se utilicen para la capacitación de IA:
La historia continúa bajo este anuncio
-Esta a tu LinkedIn -Profile
-Apin Configuración
-Al clic en DatPrivacy
-Toggle de la opción con la etiqueta ‘Use mis datos para entrenamiento de modelos AI de creación de contenido’.
Chatgpt y dall-e
Según las páginas de ayuda de Openai, los usuarios web que desean darse de baja de la capacitación de IA pueden seguir estos pasos:
-Navigato a las instituciones
-Va al control de datos
-Tinteeck ‘implement el modelo para todos’ opción
En el caso del generador de imágenes Dall-E, OpenAi dijo que los usuarios que desean que sus imágenes se eliminen de los conjuntos de datos de capacitación futuros deben enviar un formulario con sus datos como nombre, correo electrónico y si tienen los derechos del contenido.
La historia continúa bajo este anuncio
Límites
Aunque estos pasos se pueden dejar de suscribir de la capacitación de IA, vale la pena mencionar que muchas compañías que construyen modelos de IA o funciones de aprendizaje automático probablemente ya hayan raspado la web. Estas compañías a menudo son misteriosas sobre qué datos han sido barridos en sus conjuntos de datos de capacitación porque están bajo su cuidado por la infracción de derechos de autor o se enfrentan al control por las autoridades de protección de datos.
La industria técnica cree en gran medida que todo lo que está disponible en línea es un juego honesto para el entrenamiento de IA en línea. Por ejemplo, Meta Scrapes Schared Content de usuarios mayores de 18 años para capacitación de IA con excepciones solo para usuarios en países que forman parte de la Unión Europea (UE).