Twój koszyk jest obecnie pusty!
Na początku lipca, na łamach serwisu hAI Magazine informowałem o decyzji Apple dot. wdrożenia rozwiązań w oparciu o sztuczną inteligencję w najnowszych systemach. Wówczas gigant technologiczny zdecydował się ograniczyć funkcje AI na terenie Unii Europejskiej, by móc dostosować się do ustaw AI Act. Dziś Meta pokazuje swojemu konkurentowi, jak w jej ocenie, należy rozmawiać z unijnymi decydentami.
Meta wycofuje się z trenowania europejskich danych dla modelu Llama
W maju użytkownicy z europejskiej wspólnoty otrzymali informacje o tym, że Meta rozpoczyna trenowanie sztucznej inteligencji. Jeżeli chcieliśmy zachować darmowy dostęp do Facebooka czy Instagrama, nie mieliśmy wyjścia, mogliśmy jedynie przyjąć to do wiadomości. Oczywiście firma poinformowała nas również o tym, że to trenowanie będzie odbywało się w sposób bezpieczny i nie będzie oparte na naszych osobistych informacjach, danych osobowych czy innych, które mogłyby pomóc zidentyfikować konkretne profile w mediach społecznościowych. Niemniej, trenowanie algorytmów na danych z social mediów może budzić w użytkownikach pewnego rodzaju niechęć. Kłopot polega na tym, że nie zawsze publikujemy szeroko, dla wszystkich, a jedynie dla zamkniętego grona znajomych, warto byłoby więc może rozdzielić dane, które można traktować jako te rzeczywiście uwolnione do użytku publicznego (czyli np. posty ze słynną ikonką globusu, widoczne dla wszystkich).
Europarlamentarzyści zdaje się, uznali zasadność takich odczuć i wdrożyli ustawę AI Act, która ma chronić nie tylko użytkowników, ale także właścicieli praw autorskich. I właśnie w wyniku przyjęcia tej ustawy, koncern Marka Zuckerberga postanowił wycofać rozwiązania oparte o sztuczną inteligencję z Unii Europejskiej.
Skoro nie możemy trenować danych, to nie udostępnimy rozwiązań AI
Brak możliwości trenowania danych z rynków europejskich może jednak prowadzić do niskiej jakości sztucznej inteligencji, z której mogliby korzystać Europejczycy. Bez określonych preferencji, zróżnicowanej kultury, kwestii religijnych czy historii jaka łączy Europejczyków, nie możemy mówić o dobrej jakości danych dostępnych w multimodalnej Llamie od Mety. Spółka w opublikowanym wyjaśnieniu pisze także o tym, że w zakresie sztucznej inteligencji nie może liczyć na przejrzystość ze strony europejskiego parlamentu. Jak twierdzą przedstawiciele firmy, w tworzeniu multimodalnej Llamy podążają śladem Google’a czy OpenAI, którzy już wytrenowali swoje modele na europejskich danych.
Z drugiej strony lepsza kontrola tech-gigantów i egzekwowanie stosowania prawa AI Act przez Unię Europejską ma dawać nam poczucie większego bezpieczeństwa.
Miejmy nadzieję, że w niedalekiej przyszłości uda się wspólnie wypracować rozwiązania, które pozwolą na rozwój technologii przy jednoczesnym poszanowaniu praw użytkowników.