Los usuarios de Slack se horrorizan al descubrir mensajes utilizados para el entrenamiento de IA
Después lanzamiento Slack AI en febrero, Slack parece estar esforzándose mucho y defendiendo su lugar política que, de forma predeterminada, absorbe datos de los clientes (incluidos mensajes, contenido y archivos) para entrenar los modelos globales de inteligencia artificial de Slack.
Según el ingeniero de Slack, Aaron MaurerSlack explicado en un Blog que el servicio de chat propiedad de Salesforce no entrena sus grandes modelos de lenguaje (LLM) en función de los datos de los clientes. Pero es posible que sea necesario actualizar la política de Slack «para explicar más cuidadosamente cómo funcionan estos principios de privacidad con la IA de Slack», escribió Maurer en Threads, en parte porque la política «fue escrita originalmente sobre el trabajo de investigación/recomendación que hemos realizado años antes de Slack AI». .”
Maurer estaba respondiendo a un Threads publicar del ingeniero y escritor Gergely Orosz, quien pidió a las empresas que opten por no compartir datos hasta que se aclare la política, no a través de un blog, sino en un lenguaje político real.
«Un ingeniero de aprendizaje automático en Slack dice que no utiliza mensajes para entrenar modelos de LLM», escribió Orosz. «Mi respuesta es que los términos actuales lo permiten. Creo que esta es la política cuando está en la política. Una publicación de blog no es la política de privacidad: toda empresa seria lo sabe».
La tensión para los usuarios se vuelve más clara si se comparan los principios de privacidad de Slack con la forma en que la compañía promociona Slack AI.
Los principios de privacidad de Slack dicen específicamente que «el aprendizaje automático (ML) y la inteligencia artificial (IA) son herramientas útiles que utilizamos de manera limitada para avanzar en la misión de nuestro producto. Para desarrollar modelos de IA/ML, nuestros sistemas analizan información de datos (por ejemplo, mensajes, contenido y archivos) enviados a Slack, así como otra información (incluida la información de uso) según se define en nuestra política de privacidad y su acuerdo con el cliente».
Mientras eso, Página de IA floja dice: «Trabaja sin preocupaciones. Tus datos son tuyos. No los usamos para entrenar la IA de Slack».
Debido a esta incongruencia, los usuarios pidieron a Slack que actualizara los principios de privacidad para dejar claro cómo se utilizan los datos para la IA de Slack o cualquier actualización futura de la IA. Según un portavoz de Salesforce, la empresa estuvo de acuerdo en que se necesita una actualización.
«Ayer, algunos miembros de la comunidad de Slack pidieron más claridad con respecto a nuestros principios de privacidad», dijo un portavoz de Salesforce a Ars. «Actualizaremos estos principios hoy para explicar mejor la relación entre los datos de los clientes y la IA generativa en Slack».
El portavoz le dijo a Ars que las actualizaciones de la política aclararán que Slack no “desarrolla LLM u otros modelos generativos utilizando datos de clientes”, “usa datos de clientes para capacitar LLM de terceros” ni “construye o entrena estos modelos de tal manera”. «forma en que podrían aprender, memorizar o reproducir los datos de los clientes». La actualización también aclarará que «Slack AI utiliza LLM listos para usar donde los modelos no retienen los datos de los clientes», asegurando que «los datos de los clientes nunca sale del límite de confianza de Slack y que los proveedores de LLM nunca tienen acceso a los datos de los clientes».
Sin embargo, estos cambios no parecen abordar una preocupación clave para los usuarios que nunca han dado su consentimiento explícito para que se compartan chats de Slack y otros contenidos para su uso en la capacitación de IA.
Usuarios que optan por no compartir chats con Slack
Esta controvertida política no es nueva. cableado prevenido al respecto en abril, y TechCrunch reportado que la política ha estado vigente desde al menos septiembre de 2023.
Pero la reacción generalizada comenzó a aumentar anoche. Noticias de piratas informáticos, donde los usuarios de Slack criticaron al servicio de chat por aparentemente no notificar a los usuarios sobre el cambio de política, sino que optaron silenciosamente por activarlos de forma predeterminada. A los críticos les parecía que no había ningún beneficio en optar por alguien que no fuera Slack.
A partir de ahí, la reacción se extendió a las redes sociales, donde SlackHQ se apresuró a aclarar los términos de Slack con explicaciones que no parecieron abordar todas las críticas.
«Lo siento, Slack, ¿qué estás haciendo con los mensajes directos, mensajes, archivos, etc. de los usuarios?» Corey Quinn, economista jefe de la nube en una empresa de gestión de costos llamada Duckbill Group, al corriente en X. «Estoy seguro de que no estoy leyendo esto correctamente».
SlackHQ el respondió a Quinn después de que el economista declarara: «Odio tanto esto» y confirmara que había optado por no compartir datos en su espacio de trabajo remunerado.
«Para aclarar, Slack tiene modelos de aprendizaje automático a nivel de plataforma para cosas como recomendaciones de canales y emojis y resultados de búsqueda», publicó SlackHQ. «Y sí, los clientes pueden excluir sus datos del entrenamiento de estos modelos de aprendizaje automático (no generativos). Los datos de los clientes pertenecen a Slack AI, que es nuestra experiencia de IA generativa integrada de forma nativa en Slack.[and] es un complemento que se compra por separado y que utiliza modelos de lenguaje grandes (LLM), pero no entrena a estos LLM con los datos del cliente».
«Introvertido. Solucionador de problemas. Aficionado total a la cultura pop. Estudiante independiente. Creador».