Neuroteknik ny utmaning för dataskyddet
Helt nyligen gick den 46:e upplagan av konferensen Global Privacy Assembly av stapeln. Denna gång på den lilla ön Jersey. Syftet med konferensen är att samla representanter från de dataskyddsmyndigheter som finns världen över. Den här konferensen hölls för första gången 1979 och hette under en lång tid International Conference of Data Protection and Privacy Commissioners.
Från oss på IMY deltog i år vår generaldirektör Eric Leijonram och vår EU-samordnare Elisabeth Jilderyd. IMY-bloggen har pratat närmare med Elisabeth Jilderyd om årets konferens.
Vad gör man på en konferens som denna?
– Global Privacy Assembly består av två delar: en öppen och en sluten del. På den slutna delen deltar endast representanter från de olika dataskyddsmyndigheter som finns runt om i världen. På den öppna delen kan även andra som är intresserade av dataskyddsfrågor delta. I år deltog bland annat representanter från Google, Microsoft och Open AI på den öppna delen.
Vi från IMY deltog i år endast på de slutna delarna av konferensen. Under de två dagarna hölls olika föredrag och konferensen avslutades med att dataskyddsmyndigheterna antog ett antal resolutioner. Några exempel är resolutioner som rör neuroteknologi (neurodata) och certifieringsmekanismer. De här resolutionerna, som ofta är rätt allmänt hållna, kan vara av intresse både för techbolag och för de som arbetar med dataskyddsfrågor.
Precis som i EDPB finns det inom ramen för GPA undergrupper som arbetar med olika frågor. Från Sverige deltar vi inte i några av dessa undergrupper förutom i den så kallade Berlingruppen som arbetar med frågor som rör ny teknik och dataskydd. Berlingruppen heter egentligen något annat men kallas för detta eftersom det var Berlins dataskyddsmyndighet som en gång i tiden åtog sig att ansvara för gruppens möten och sekretariat. Vi brukar vara representerade i Berlingruppens arbete med en jurist och en it- och informationssäkerhetspecialist.
På årets GPA-konferens rapporterade Berlingruppen om olika arbetsdokument som gruppen antagit och som rörde bland annat AI, neuroteknologi och ansiktsigenkänning.
Kan du ge några exempel på intressanta frågor som togs upp på konferensen?
– Javisst. Chefen för den sydafrikanska dataskyddsmyndigheten, Pansy Tlakula, drog en lite rolig förkortning som åtminstone inte jag har hört förut, BBT eller Born Before Technology. Hon höll en föreläsning om barns användning av nya tekniker och framför allt frågan om barn och metaverse. Innan hon åkte till konferensen hade hon berättat därhemma att hon skulle prata om barn och metaverse och hade förstått att man undrade över vad hon och hennes generation egentligen kan tänktas veta om det. Hennes budskap var dels att det är viktigt för oss dataskyddsmyndigheter att bättre känna till hur barn använder ny teknik som metaverse, dels vikten av att skolor i sin undervisning tar upp data- och integritetsskyddsfrågor, något som skolor kanske inte alltid har resurser till.
En annan intressant föreläsning rörde bias vilket väl kan översättas till partiskhet, fördomar eller diskriminering. Den som talade var Bojana Bellamy som är ordförande för Center for Information Policy Leadership. Hon menar att det nog finns fler olika grupper som är sårbara för partiskhet från AI än vad vi kanske tror men också att om vi utvecklar AI-verktyg rätt och om vi tränar dem rätt så kan de också hjälpa till att förhindra fördomar som vi människor har.
Chefen för den nyazeeländska dataskyddsmyndigheten, Michael Webster, talade om vikten av bra ”stories”, historier för att göra dataskyddsriskerna lättare att förstå för alla. I Nya Zeeland ville en skola sätta upp kamerabevakning på skolans toaletter, något som orsakade mycket stor uppmärksamhet i massmedia där. ”Om det finns risker som verkligen berör medborgarna så kan vi dataskyddsmyndigheter enklare nå ut med budskap som rör riskerna med ny teknik och vikten av dataskydd”.
Du nämnde en resolution om neuroteknik. Kan du berätta litet mer om den?
– På Global Privacy Assembly antas, som sagt, olika resolutioner. I år rörde en av dessa neuroteknologi, en teknik som det börjar pratas om allt mer ur dataskydds- och integritetsskyddsperspektiv. Neuroteknik kan öka förståelsen för den mänskliga hjärnan och kan bidra till att förebygga och behandla sjukdomar men kan även användas som en form av ”brain fingerprint”, hjärn-fingeravtryck, som i sig kan utgöra nya integritetsrisker. I resolutionen uttrycker GPA en djup oro över de risker som neuroteknologi och behandling av neurodata kan medföra och betonar vikten av att grundläggande rättigheter såsom rätten till skydd för privatliv och dataskydd upprätthålls i samband med sådan behandling.