Twój koszyk jest obecnie pusty!
Czy największe korporacje, takie jak LinkedIn i X, będą jedynie kopiować od siebie kontrowersyjne praktyki związane z wykorzystywaniem danych, czy staną się motorem napędowym prawdziwych innowacji zgodnych z etyką i prywatnością użytkowników? Po cichu wprowadzone zmiany, które pozwalają na szkolenie AI na naszych danych, budzą wątpliwości, czy w przyszłości możemy spodziewać się bardziej transparentnych działań.
Tym razem biznesowa apka
LinkedIn, gigant mediów społecznościowych należący do Microsoftu, niedawno zaktualizował swoją politykę prywatności i wywołał falę komentarzy w świecie technologii.
Nie jest to zwykła aktualizacja warunków, którą użytkownicy często pomijają – to fundamentalna zmiana w sposobie, w jaki jedna z największych profesjonalnych sieci wykorzystuje udostępniane przez nas informacje. Najbardziej uderzające jest jednak, to że większość użytkowników nie miała nawet pojęcia, że do jakiejś zmiany dochodzi.
Co na to Linkedin?
Rzeczywistość, w której obecnie się znajdujemy, jest taka, że wiele osób szuka pomocy w przygotowaniu pierwszego szkicu CV, w napisaniu bio na profilu LinkedIn, czy w tworzeniu wiadomości do rekruterów. Pod koniec dnia ludzie szukają sposobów, by zyskać przewagę na rynku pracy, a nasze usługi Gen-AI im w tym pomagają.” – rzecznik LinkedIn Greg Snapper.
Jednakże w obliczu rosnącej popularności narzędzi opartych na sztucznej inteligencji, kwestie związane z prywatnością stają się coraz bardziej złożone. Zmiana została wprowadzona „po cichu”. Jakby automatycznie zadecydowano za miliony użytkowników na całym świecie, że ich dane będą wykorzystywane do celów szkoleniowych AI. Od starannie przygotowanego CV po ostatnie skromne pochwały dotyczące osiągnięć zawodowych – wszystko to mogło stać się pokarmem dla algorytmów sztucznej inteligencji LinkedIna.
Kwestia ta nabiera jeszcze większej wagi, gdy weźmiemy pod uwagę, jak niektóre portale, (np. 404 Media), zauważyły, że LinkedIn początkowo nie odświeżył swojej polityki prywatności, aby odzwierciedlić to nowe wykorzystanie danych. To z kolei wprowadza pytania o odpowiedzialność firm technologicznych i sposób, w jaki informują użytkowników o zmianach. W końcu, standardową praktyką jest aktualizacja warunków świadczenia usług na długo przed wprowadzeniem tak istotnej zmiany. Ideą tego podejścia jest umożliwienie użytkownikom dokonania świadomych decyzji: czy chcą nadal korzystać z platformy, czy też zrezygnować, jeśli nie zgadzają się z nowymi warunkami.
Jakimi modelami jest więc szkolony LinkedIn?
Przedsiębiorstwo przyznaje, że generatywne modele sztucznej inteligencji na jego platformie mogą być szkolone przez „innego dostawcę”, takiego jak jego korporacyjny rodzic Microsoft. To rodzi z kolei pytania o to, gdzie dokładnie trafiają nasze dane i kto ma do nich dostęp.
Ale co to dokładnie oznacza dla przeciętnego użytkownika LinkedIn? A co ważniejsze, co to mówi o przyszłości naszego cyfrowego życia?
W erze, w której nasza obecność online jest coraz bardziej powiązana z naszą tożsamością zawodową, granica między udostępnianiem a wykorzystywaniem nigdy nie była bardziej płynna. Posunięcie LinkedIn, które ma na celu wykorzystanie danych użytkowników do szkolenia AI, to nie tylko aktualizacja techniczna – jest to pewnego rodzaju spojrzenie w przyszłość, w której nasze cyfrowe ślady mogą być wykorzystywane w sposób, którego się nie spodziewamy.
Firma twierdzi, że takie wykorzystanie danych doprowadzi do bardziej spersonalizowanych oraz odpowiednich usług dla użytkowników. Znaczy to tyle, że wybory, których dokonujemy dzisiaj w odniesieniu do naszych danych, będą miały daleko idące konsekwencje.
Dla osób zaniepokojonych wykorzystywaniem ich danych LinkedIn udostępnił opcję rezygnacji. Użytkownicy mogą przejść do sekcji „Prywatność danych” w ustawieniach LinkedIn na pulpicie, kliknąć „Dane do poprawy generatywnej sztucznej inteligencji” i wyłączyć opcję „Wykorzystaj moje dane do szkolenia modeli sztucznej inteligencji do tworzenia treści”. Warto jednak zauważyć, że żadna rezygnacja nie cofnie szkolenia danych, które już się odbyło. W FAQ o treningach AI firma informuje, że stosuje „technologie zwiększające prywatność” do anonimizacji danych i nie trenuje modeli na danych osób z UE, EOG ani Szwajcarii.
Dodatkowo organizacja non-profit Open Rights Group (ORG) wezwała brytyjskie Biuro Komisarza ds. Informacji (ICO) do zbadania LinkedIn i innych sieci społecznościowych, które domyślnie trenują na danych użytkowników. Mariano delli Santi, specjalista ds. prawnych i politycznych ORG, stwierdził: „Model opt-out po raz kolejny okazuje się całkowicie nieadekwatny do ochrony naszych praw: nie można oczekiwać, że społeczeństwo będzie monitorować i ścigać każdą firmę internetową, która zdecyduje się wykorzystać nasze dane do trenowania sztucznej inteligencji”.
Zmiany na LinkedIn są kolejnym dowodem na to, że największe platformy technologiczne coraz częściej wykorzystują dane użytkowników do szkolenia swoich modeli AI, nie zawsze informując o tym wprost. Podobnie jak X Elona Muska, LinkedIn stawia użytkowników przed faktem dokonanym, co budzi pytania o transparentność działań tych korporacji. Przy rosnącej liczbie takich przypadków rodzi się obawa, że granica między innowacją a naruszeniem prywatności zaczyna się zacierać na naszych oczach. Więcej o przypadku X przeczytasz w artykule pt. Elon Musk w ogniu krytyki.