Luk annoncen

Teknologiområdet er truet af en række faktorer. Brugere frygter for eksempel malware eller tab af privatliv. Ifølge indflydelsesrige personer i teknologiindustrien skal vi ikke bekymre os så meget om selve den menneskelige faktor, men derimod dens forbindelse med kunstig intelligens. Ved dette års World Economic Forum i Davos opfordrede ledere fra en række store teknologivirksomheder til lovgivningsmæssig regulering af industrien. Hvad er deres grunde til at gøre det?

"Kunstig intelligens er en af ​​de mest dybtgående ting, vi som menneskehed arbejder på. Det har mere dybde end ild eller elektricitet." sagde administrerende direktør for Alphabet Inc. sidste onsdag ved World Economic Forum. Sundar Pichai og tilføjer, at reguleringen af ​​kunstig intelligens kræver en global behandlingsramme. Microsoft-direktør Satya Nadella og IBM-direktør Ginni Rometty efterlyser også en standardisering af reglerne vedrørende brugen af ​​kunstig intelligens. Ifølge Nadella er det i dag, for mere end tredive år siden, nødvendigt for USA, Kina og EU at etablere regler, der bestemmer betydningen af ​​kunstig intelligens for vores samfund og for verden.

De enkelte virksomheders forsøg på at etablere deres egne etiske regler for kunstig intelligens har tidligere mødt protester ikke kun fra disse virksomheders ansatte. Eksempelvis måtte Google i 2018 trække sig tilbage fra det hemmelige regeringsprogram Project Maven, der brugte teknologi til at analysere billeder fra militære droner, efter massiv modreaktion. Stefan Heumann fra den Berlin-baserede tænketank Stiftung Neue Verantwortung siger i forhold til de etiske kontroverser omkring kunstig intelligens, at politiske organisationer bør sætte reglerne, ikke virksomhederne selv.

Google Home-smarthøjttaleren bruger kunstig intelligens

Den nuværende bølge af protester mod kunstig intelligens har en klar grund til denne timing. Om få uger skal EU ændre sine planer for den relevante lovgivning. Det kan for eksempel omfatte regler om udvikling af kunstig intelligens i såkaldte højrisikosektorer som sundhedsvæsen eller transport. Ifølge de nye regler skulle virksomheder for eksempel inden for rammerne af gennemsigtighed dokumentere, hvordan de bygger deres AI-systemer.

I forbindelse med kunstig intelligens har der allerede tidligere været flere skandaler – en af ​​dem er for eksempel Cambridge Analytica-sagen. I Amazon-virksomheden aflyttede medarbejderne brugerne gennem den digitale assistent Alexa, og i sommeren sidste år brød der igen en skandale ud på grund af, at virksomheden Google - eller rettere platformen YouTube - indsamlede data fra børn under alderen. af tretten uden samtykke fra deres forældre.

Mens nogle virksomheder er tavse om dette emne, har Facebook ifølge udtalelsen fra deres vicepræsident Nicola Mendelsohn for nylig etableret sine egne regler, der ligner den europæiske GDPR-forordning. Mendelsohn sagde i en erklæring, at dette var resultatet af Facebooks fremstød for global regulering. Keith Enright, som er ansvarlig for privatlivets fred hos Google, sagde på en nylig konference i Bruxelles, at virksomheden i øjeblikket leder efter måder at minimere mængden af ​​brugerdata, der skal indsamles. "Men den udbredte populære påstand er, at virksomheder som vores forsøger at indsamle så meget data som muligt," han udtalte yderligere og tilføjede, at det er risikabelt at opbevare data, der ikke giver nogen værdi for brugerne.

Tilsynsmyndighederne ser ikke ud til at undervurdere beskyttelsen af ​​brugerdata under alle omstændigheder. USA arbejder i øjeblikket på føderal lovgivning svarende til GDPR. Baseret på dem vil virksomheder skulle indhente samtykke fra deres kunder for at give deres data til tredjeparter.

Siri FB

kilde: Bloomberg

.