Czy nasze dane mogą być chronione w dobie sztucznej inteligencji?

Europa chce być liderem rewolucji technologicznych, takich jak sztuczna inteligencja. Ambicje te kolidują jednak z dążeniem Brukseli do ochrony prawa do prywatności: AI potrzebuje danych, aby się rozwijać. Nowe rozporządzenie UE obiecuje pogodzić te dwa cele, ale nie rozwiązuje wszystkich problemów.

Jest rok 2016. Donald Trump wygrał wybory w USA, a zwolennicy Brexitu wygrali głosowanie w sprawie wyjścia Wielkiej Brytanii z Unii Europejskiej. W obu kampaniach skorzystano z usług firmy Cambridge Analytica, która wykorzystała dane milionów użytkowników Facebooka do personalizacji propagandy wyborczej i zmiany sposobu głosowania. Miliony ludzi zaczęły się zastanawiać, czy w erze cyfrowej nie stracili czegoś, co tak bardzo cenili: swojej prywatności.

Dwa lata później foldery poczty elektronicznej milionów Europejczyków zapełniły się wiadomościami od firm z prośbą o zgodę na dalsze przetwarzanie ich danych, zgodnie z nowym europejskim rozporządzeniem o ochronie danych (RODO). Pomimo swoich niedoskonałości, rozporządzenie to posłużyło jako punkt odniesienia dla ustaw w Brazylii czy Japonii i zapoczątkowało erę ochrony danych użytkowników.

Jednak to, co było świętowane jako triumf, obecnie jest postrzegane jako przeszkoda dla Europy w konkurowaniu w rozwoju technologii cyfrowych, a w szczególności sztucznej inteligencji. Czy prawo europejskie może chronić prywatność swoich obywateli w obliczu rozwoju technologii, która nie zawsze jest przejrzysta?

Czy priorytetowo traktujemy prawa cyfrowe, czy innowacje?

System sztucznej inteligencji (AI) to narzędzie stworzone z technik obliczeniowych, które pozwalają algorytmowi uczyć się na podstawie danych w celu dostarczenia korelacji, przewidywań, decyzji lub rekomendacji. Ta zdolność do oferowania nowych spostrzeżeń ludzkiemu decydentowi sprawia, że AI jest podstawą technologii opartych na danych.

Możliwość podejmowania skuteczniejszych i szybszych decyzji dzięki AI ma również konsekwencje geopolityczne. Coraz więcej państw inwestuje w tego typu technologie pod hasłem tego, co w 2017 roku powiedział Władimir Putin: „Kto opanuje sztuczną inteligencję, opanuje świat”.

Poczucie pilności przeniosło się również na inne agendy, takie jak prawa cyfrowe w Europie. Europejscy regulatorzy tworzą przepisy sprzyjające prywatności, walczą z monopolami wielkich platform cyfrowych, czy tworzą przestrzenie do bezpiecznego przechowywania wrażliwych danych obywateli. Jednak te postępy w zakresie praw cyfrowych mogą zagrozić dobrobytowi gospodarczemu kontynentu.

Wraz z wejściem w życie RODO w 2018 r. firmy ostrzegały, że konieczność spełnienia wysokich wymagań w zakresie ochrony danych będzie przeszkodą dla wprowadzania innowacji w technologii. Wśród najczęściej powtarzanych argumentów jest to, że RODO zmniejsza konkurencyjność, że przestrzeganie przepisów jest zbyt skomplikowane lub że utrudnia Europie produkcję „kur znoszących złote jaja”: młodych start-upów o kapitalizacji rynkowej przekraczającej miliard dolarów, które będą starały się rozwijać w miejscach o mniejszej liczbie regulacji.

Z drugiej strony Bruksela przekonuje, że atrakcyjność jej rynku liczącego ponad pół miliarda ludzi oraz gwarancje takie jak stabilność polityczna i wolność gospodarcza będą nadal przyciągać inwestorów.

Pogodzenie sztucznej inteligencji i prywatności

Przestrzeganie RODO może być dodatkowym problemem dla rozwoju sztucznej inteligencji. Systemy AI potrzebują wielu danych, aby się rozwijac, ale regulacje UE ograniczają możliwości firm w zakresie gromadzenia, udostępniania i wykorzystywania tych danych. Analogicznie, gdyby nie było tej regulacji, masowe wykorzystanie danych zagrażałoby prywatności obywateli. Aby zachować równowagę, RODO pozostawia miejsce na rozwój AI kosztem czasami niejasnego języka prawa, co skrytykowały stowarzyszenia ochrony prywatności, takie jak European Digital Rights.

Wciąż jednak istnieją pewne drażliwe kwestie. Jedną z nich jest zasada przejrzystości, która zakłada, że wszystkie osoby fizyczne powinny mieć dostęp do swoich danych i rozumieć, co się z nimi dzieje, a wyjaśnienia te powinny być jasne i zwięzłe. Ale utrzymanie takiej przejrzystości może być trudniejsze, gdy procesorami tych danych są systemy AI.

Firmy i instytucje zajmujące się rozwojem AI od dawna pracują nad zapewnieniem tzw. „explainability” i „interpretability”, czyli nad tym, aby zwykł człowiek był w stanie zrozumieć system AI i dlaczego podejmuje on określone decyzje.

Kolejnym dylematem jest „prawo do bycia zapomnianym”. Traktowane jako zwycięstwo RODO dla prywatności, zobowiązuje firmy do usunięcia danych osoby, jeśli ta osoba o to poprosi. W przypadku systemów AI teoretycznie firma mogłaby wymazać dane osoby w algorytmie, ale nie ślad, jaki poszczególne dane zostawiły w samym systemie, co uniemożliwiłoby całkowite „zapomnienie”.

 

Rekomendowane artykuły