Odpowiednie regulacje, kwestie bezpieczeństwa danych oraz zgody użytkowników są obecnie kluczowe w przypadku firm wykorzystujących możliwość używania zgromadzonych danych do trenowania swoich modeli sztucznej inteligencji. Wygląda na to, że znany firmowy komunikator Slack trenował swoje AI na danych użytkowników, którzy zostali automatycznie włączeni do programu zamiast być z niego automatycznie wyłączeni i na zbieranie danych wyrażać świadomą zgodę. Po tym, jak informacja stała się wirusowa w Internecie, gdy użytkownik Slacka wskazał ją na X/Twitterze, wielu jest zirytowanych, że Slack wyraźniej nie zaznaczył faktu trenowania AI na ich danych. Poirytowana wypowiedź dyrektora wykonawczego Duckbill Group, Coreya Quinna brzmiąca: „I'm sorry Slack, you're doing f**king WHAT with user DMs, messages, files, etc?” zapoczątkowała burzę. Quinn nawiązywał do zasad prywatności Slacka: „Aby opracować modele AI/ML, nasze systemy analizują dane klientów (np. wiadomości, treści i pliki) przesłane do Slacka, a także inne informacje (w tym informacje o użytkowaniu) określone w naszej Polityce prywatności i umowie z klientem”. Odpowiadając pod tym samym postem, Slack potwierdził, że niektóre funkcje sztucznej inteligencji w aplikacji są szkolone przy użyciu materiałów użytkownika. Dane te nie trafiają jednak do ich rozwiązania premium AI, które sprzedają jako całkowicie oddzielone od danych użytkownika. https://x.com/SlackHQ/status/1791277972722188311 Mimo to, podstawowe możliwości sztucznej inteligencji Slack, które zależą od otwartego dostępu do prywatnych plików i rozmów wszystkich osób, zaskoczyły większość ludzi. Wielu użytkowników stwierdziło, że powinno być wyraźne ostrzeżenie, aby konsumenci mogli zrezygnować z gromadzenia danych. Rezygnacja jest również uciążliwa. Ludzie nie mogą zrezygnować samodzielnie; administrator musi wysłać e-mail z bardzo precyzyjnym tematem – "Slack Global model opt-out request" – w imieniu całej organizacji. Krytyka narastała, a kolejne ciosy wyprowadziła konkurencja. Prezes zaszyfrowanego oprogramowania do przesyłania wiadomości Signal, Meredith Whittaker, napisała: „przede wszystkim nie zbieramy twoich danych, więc AI nie ma nic do "wydobycia". https://x.com/mer__edith/status/1791533668412080489 Zacięta rywalizacja w wyścigu o najlepsze wykorzystanie AI sprawia, że konkurujące firmy próbują wykorzystać każdą sztuczkę – czystą lub niekoniecznie – aby stworzyć lepsze oprogramowanie. Slackowi nie pomagają sprzeczności w regulaminach i oświadczeniach. Według jednego zapisu, podczas tworzenia modeli sztucznej inteligencji korporacja nie może uzyskać dostępu do podstawowych treści. W innym zaś miejscu, promującym zaawansowane technologie generatywnej sztucznej inteligencji, Slack obiecuje: „Pracuj bez obaw. Twoje dane są po prostu twoje. Nie używamy ich do szkolenia Slack AI. Wszystko działa na bezpiecznej infrastrukturze Slack i jest zgodne z tymi samymi przepisami, co Slack". Twierdzenia te wydają się jednak sprzeczne z dopuszczeniem do wykorzystania danych użytkowników zawartym w „polityce prywatności”. Inżynier ze Slacka próbował wyjaśnić sprawę na Threads, przyznając, że polityka prywatności zdecydowanie wymaga aktualizacji i stwierdzając, że „pierwotnie została napisana z myślą o wyszukiwaniu/rekomendacjach, które powstały na lata przed Slack AI”. Wykorzystywanie opt-in-by-default jest poważnym problemem. Choć to taktyka powszechna w świecie korporacji korzystających z nowych technologii, to jednak narusza zasady prywatności danych, uniemożliwiając osobom fizycznym kontrolę nad ich wykorzystaniem.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj