Slack е доста популярна платформа за комуникация за професионални цели, като се използва от много потребители. Тя разбира се има своите предимства и недостатъци по подобие на повечето решения, но сега научаваме за една черта, която едва ли сте очаквали.
Приложението използва потребителски съобщения, файлове и друго съдържание за машинно обучение на модели. Тази функционалност може да бъде деактивирана, което означава, че по подразбиране данните ви биват използвани от компанията. Освен това самият процес по отписване не е особено лесен. За целта трябва да изискате от администратора на организацията ви в Slack да изпрати мейл до компанията с искане за прекратяване на практиката.
Тази противоречива политика е открита от Кори Куин от DuckBill Group, като тя е прикрита добре в Принципите за поверителност на личните данни на Slack. Във въпросната секция се посочва, че за разработката на собствени AI/ML модели системите анализират Потребителски данни (съобщения, съдържание и файлове) изпратени към Slack, както и друга информация, включително такава за използване на приложението.
В отговор на всичко това от Slack публикуват блог публикация, с която разясняват това как се използват тези данни. От платформата посочват, че информацията не се използва за обучение на генеративните продукти на компанията с изкуствен интелект. За тези цели се разчита на големи езикови модели от външни страни. Потребителските данни обаче се подават към моделите за машинно обучение на компанията, включително за продукти като препоръки за канали и емоджита, както и при резултати от търсене.
Потребителската информация е анонимна и не включва съдържанието на директни съобщения, публични канали и лични канали. Използваните данни могат да включват времена на съобщения и брой взаимодействия между потребителите. От Salesforce подчертават, че не обучават или изграждат модели за запаметяване на потребителски данни.
Засега няма яснота откога е въведена тази практика, но определено е подвеждащо пояснението, че потребителите могат да я деактивират, тъй като процесът изисква намесата на ръководителят на организацията.
Това разбира се е само поредното доказателство, че потребителски данни се използват за обучение на разнообразни системи, а в доста случаи липса адекватна информираност за потребителите. В случая има и някои разминавания в политиките за поверителност на данни от Slack. Един от разделите посочва, че при разработката на Al/ML модели или при анализиране на потребителски данни Slack не може да получи достъп до основното съдържание, а за целта са приложени разнообразни технически мерки. Политиката за машинно обучение обаче изглежда противоречи на това заявление. Създава се разделение между премиум генеративни инструменти с изкуствен интелект и модели за машинно обучение.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари