loading

Ustawa o sztucznej inteligencji UE

Michał Mikulski
19 grudnia 2021

Ochrona prywatności odbywa się na wielu płaszczyznach, jednak coraz trudniej o bezpieczeństwo naszych danych, kiedy w codziennym życiu kontrolować trzeba nie tylko firmy i innych ludzi, ale także - a może przede wszystkim - nowoczesne technologie.

W lutym 2020 roku Komisja Europejska opublikowała „Białą Księgę w sprawie sztucznej inteligencji”. Zawiera ona opis działań, które ma zamiar przedsięwziąć Unia Europejska w celu umocnienia swojej pozycji na arenie międzynarodowej w zakresie cyfryzacji. Co trzeba o niej wiedzieć?

Geneza powstania ustawy o sztucznej inteligencji

Od początku XXI wieku sztuczna inteligencja staje się coraz bardziej nieodłącznym elementem codzienności dla większości europejskich (ale nie tylko) rodzin. Sztuczna inteligencja przyczynia się do dynamicznego rozwoju wielu sektorów życia, a na co dzień pomaga nam ukryta w smartfonach czy wynikach wyszukiwania. Na większą skalę dzięki niej ludzie mogą cieszyć się wyższej jakości opieką zdrowotną, większymi płodami rolnymi czy innowacyjnymi rozwiązaniami łagodzącymi skutki zmiany klimatu. Niestety, kosztem w wielu przypadkach jest prywatność jednostki. Z tego powodu powstała Biała Księga - zbiór wytycznych, które dążą do „promowania stosowania sztucznej inteligencji i zajęcia się zagrożeniami związanymi z niektórymi zastosowaniami tej nowej technologii”.

Nowe kryteria działania Unii Europejskiej

Komisja Europejska w swoich zaleceniach dotyczących wykorzystania sztucznej inteligencji postawiła na dwa kryteria: ekosystem doskonałości i ekosystem zaufania. Pierwszy koncentruje się na zacieśnieniu współpracy badawczej między państwami członkowskimi i zwiększeniu finansowania badań i rozwoju. Drugi natomiast odnosi do zagadnień etycznych związanych z AI i ochrony sektorów znajdujących się w grupie ryzyka bezpieczeństwa.

Niebezpieczeństwa związane z rozpowszechnieniem AI

Będąc przedsiębiorcą, pracownikiem ds. bezpieczeństwa czy w końcu osobą prywatną, należy zdawać sobie przykład z zagrożeń jakie niesie za sobą powszechne wykorzystanie sztucznej inteligencji. Niech za przykład posłuży znana technologia rozpoznawania twarzy. Przeciętny użytkownik nie zwraca uwagi na niebezpieczeństwa związane z faktem, że Facebook, Google czy Apple ma możliwość rozpoznawania twarzy na zdjęciu i katalogowania go.

Jest to wygodne rozwiązanie – gdy chcemy przypomnieć sobie wyjazd z najbliższą nam osobą, korzystając z funkcji rozpoznawania twarzy z Google Photos czy iCloud. Co więcej, systemy te potrafią rozpoznać zwierzęta czy rzeczy. Nic nie stoi na przeszkodzie, żeby stworzyć album „Wszystkie Moje zdjęcia z kotami”.

Odwracając sytuację, rozpoznawanie twarzy może zostać użyte do szybkiego odnalezienia danej osoby w dużej ilości plików multimedialnych (zdjęć czy wideo). Powiedzmy, że grupa przestępców przechwytuje niezanonimizowane pliki multimedialne z korporacji w której pracuje 25 000 osób. Potrzebują znaleźć tylko jedną. Pobierają udostępnione w mediach społecznościowych zdjęcie, uruchamiają odpowiedni program i korzystając z nagrań z kamer CCTV są w stanie określić w jakich godzinach pracuje dana osoba, z kim się spotyka, z jakiego działu jest, kiedy pije kawę i z kim ma ewentualny romans. Takie dane można wykorzystać do szantażu danej osoby. W filmowym scenariuszu np. do szantażu prezesa ogromnej spółki, żeby osiągać określone wpływy czy realizować zyski.

W zakresie bezpieczeństwa danych, sztuczną inteligencję warto rozpatrywać jako narzędzie skracające czas. I to właśnie z tego względu w Białej Księdze Komisja Europejska przedstawiła szereg rozwiązań takim sytuacjom zapobiegającym, między innymi zmiana zakresu przyszłych ram prawnych Unii Europejskiej czy regulacja wymogów, jakie podmioty muszą spełnić w imię bezpieczeństwa. Przykładem może być debatowanie w listopadzie 2021 roku Privacy by design i Privacy by default. W ogromnym uproszczeniu, to wprowadzenie rozwiązań, które przekonają do dbania od dane już na poziomie tworzenia systemu ich przechowywania.

Środki ochrony bezpieczeństwa w UE

Unia Europejska od samego początku swojego istnienia kładzie bardzo duży nacisk na szeroko pojęte bezpieczeństwo obywateli. Dlatego obecnie, w obliczu relatywnie nowego problemu związanego z negatywnymi aspektami rozwoju sztucznej inteligencji, UE proponuje szereg rozwiązań. Są to między innymi: dostosowywanie aktualnych przepisów do obecnych realiów, określenie zakresu przyszłych ram prawnych UE czy nakładanie określonych prawnych wymogów.

Dodatkowo Komisja Europejska planuje utworzenie europejskiej struktury zarządzania w zakresie sztucznej inteligencji. W związku z wieloma wytycznymi przedsiębiorca traktujący poważnie kwestię bezpieczeństwa i etyki swojej firmy powinien dokładnie wczytać się w treść Białej Księgi i wyciągnąć odpowiednie wnioski. Sztuczna inteligencja, jak każda inna innowacja, to narzędzie, które może być wykorzystane w przeróżne sposoby. Warto, żeby twórcy systemów bezpieczeństwa danych myśleli już teraz o tym zagadnieniu, by uniknąć problemów w przyszłości.

Sztuczna inteligencja w aplikacji Gallio.pro

Oczywiście, jak w przypadku każdego narzędzia, ma ono także swoje dobre strony. Sztuczną inteligencję można wykorzystać także w celu ochrony danych osobowych. Aplikacja Gallio.pro wykorzystuje automatyzację opartą o sztuczną inteligencję do anonimizacji danych. Każda twarz na filmie i zdjęciu zostaje rozpoznana i zamazana. Dzięki wykorzystaniu nowych technologii, użytkownik może zamazywać duże ilości plików automatycznie.

Gallio.pro to łątwy i szybki sposób na anonimizację danych i wyjście naprzeciw wymogom Białej Księgi. Program w wersji demonstracyjnej można pobrać TUTAJ.

Pozostałe wpisy