Ingen tvivl- AI kan gøre meget godt- og udrette meget skade

Ingen tvivl- AI kan gøre meget godt- og udrette meget skade

Er vi så begejstrede, at vi risikerer at begå præcis de samme fejl, som vi gjorde, da vi introducerede internettet og digitaliseringen i samfundet?

Nu er vi faktisk allerede for sent ude, men vi kunne jo stoppe op og trække vejret … og være opmærksomme … Mange af os har været fascineret af mulighederne i AI, for nu kan vi alle være dygtigere … Da kunst ikke længere nødvendigvis handler om at være god til at male, designe eller komponere… og angribe et netværk, ikke længere handler om at være god til pentesting eller kodning … Det handler om at være god til at prompte … Eller gør det?

Frygten for overdreven afhængighed af AI-systemer, der kan føre til tab af kreativitet, kritisk tænkning og menneskelig intuition, er valid. I begejstringen for at bruge AI, hvor det er muligt, og skabe systemer, der bygger på moderne AI, herunder neurale netværksbaserede maskinlæringsmodeller (ML) og generative AI-modeller, er det let at overse de svagheder og sårbarheder, der gør disse modeller modtagelige for fejl, vildledning, brud på fortrolighed, brud på privatlivets fred osv. Men der er også overvejelsen om at høste inficerede data og derved sprede dårlig kode eller endda malware. Når man programmerer og bruger AI, er dette en åbenlys risiko at være opmærksom på.

Vi skal derfor være opmærksomme på, hvilke træningsdata vi leverer til AI’en, da brugen af ​​AI, utilsigtet kan forstærke risici og også samfundsmæssige bias på grund af det tilgængelige datagrundlag for AI høst af data, men også algoritmisk design.

Det er derfor afgørende at investere i udviklingen af ​​upartiske algoritmer og forskellige træningsdatasæt. Hvis man indsamler “ukontrollerede” data, bør man “vaske” eller “filtrere” dataene, før man bruger dem til AI. At gøre det som en eftertanke, er besværligt og dyrt, men det er, hvad mange har en tendens til at gøre i øjeblikket.

Manglen på gennemsigtighed i AI-systemer, især i deep learning-modeller, der kan være komplekse og vanskelige at fortolke, kan tilsløre beslutningsgrundlagene og den underliggende logik i disse teknologier. Det kan derfor være svært at cybersikre og dertil også sikre overholdelse af lovgivningen, men det kan også resultere i frygt og føre til mistillid og modstand mod at anvende disse teknologier, ligesom det kan føre til mistillid til selve systemet eller organisationen der anvender AI.
Det vil i givet fald være en katastrofe for den offentlige sektor, da tillid og opbakning fra borgerne er bydende nødvendigt.

Husk privacy, moral og etik
Jeg nævner ofte privacy, etik og moral, men det er dybest set fordi, hvis grænserne brydes, brydes tilliden. Vi bør altid være opmærksomme på moralske og etiske værdier i AI-systemer, især i sammenhæng med beslutningstagning med betydelige konsekvenser, da de udgør en betydelig udfordring.

Topledelse såvel som forskere og udviklere, skal prioritere og fokusere på de etiske implikationer af AI-teknologier for at undgå negative samfundsmæssige konsekvenser. Derfor skal vi sikre, at EU-reglerne overholdes, også når vi samarbejder med tredjepartslande som USA….. OG – Hvis det på nogen måde, selv for en borger, ikke kan lade sig gøre, skal vi læne os op ad europæisk digital suverænitet. Dette må aldrig diskuteres eller forsøges manipuleret med.


Forstærkede trusler
Indførelsen af ​​AI, øger også sofistikeringen af ​​sikkerhedsrisici betydeligt, på grund af kriminelles økonomiske styrke og brugen af ​​AI. Angreb er blevet lettere – også for nybegyndere. AI’s kraft til at udvikle mere avancerede cyberangreb, omgå sikkerhedsforanstaltninger og udnytte sårbarheder i systemer kan udnyttes af hackere, ondsindede aktører og endda amatører, der blot kan købe angreb eller teknologier til angreb – som en tjeneste.
AI-drevet autonome våben rejser også bekymringer om farerne ved, at slyngelstater eller ikke-statslige aktører også bruger denne teknologi. Det potentielle tab af menneskelig kontrol i kritiske beslutningsprocesser kan være ødelæggende.

At fremme decentraliseret og samarbejdsbaseret AI-udvikling er derfor nøglen til at undgå magtkoncentration. Mange startups er dukket op på AI-arenaen – hvilket både kan betyde en risiko, hvis de ikke er professionelle nok, men på den anden side også er den nødvendige faktor, så AI-udvikling ikke domineres af Big Tech-virksomheder og de største regeringer, der kan forværre uligheden og begrænse diversiteten i AI-applikationer.
Jeg bakker op om et internationalt samarbejde for at etablere globale normer og regler, der beskytter mod AI-sikkerhedstrusler.

For at afbøde sikkerhedsrisici skal regeringer og organisationer udvikle´best praksis´for sikker AI-udvikling og -implementering.
Og for at undgå koncentrationen af ​​AI-udvikling og -ejerskab ligger på for få hænder af store virksomheder og regeringer, -skal vi søge at etablere politikker og initiativer, der fremmer økonomisk lighed – såsom omskolingsprogrammer, sociale sikkerhedsnet og inkluderende AI-udvikling. På den måde sikres en mere afbalanceret fordeling af muligheder og, vigtigst af alt, bidrages der til bekæmpning af økonomisk ulighed.

Simuleret Phishing er ikke nok
I det videre arbejde med AI, må vi erkende, at simuleret phishing og lejlighedsvis online træning, slet ikke er nok til at skabe en robust og modstandsdygtig organisation. Vi skal have en mere antropologisk tilgang til hele virksomhedskulturen for at etablere en mere ansvarlig og motiverende organisation med støttende og kompetente medarbejdere, og vi skal genoverveje vores arbejdsrutiner og sikkerhed i infrastrukturen. Vi bliver også nødt til at rejse diskussionen med forsyningskæder om, om hvad de har gjort for at gøre det samme. Lad os arbejde med AI’s vidundere – men for at gøre det rigtigt – så lad os lægge en plan …

Forfatter

Lignende indlæg