Deloitte og AI-fejl: læring for dansk erhvervsliv
Deloitte i Australien undskylder for AI-fejl i rapport. Læs hvordan virksomheden bruger AI ansvarligt i Danmark og hvad danske virksomheder kan lære.

Af Redaktionen
Deloitte og den australske AI-skandale
Konsulentgiganten Deloitte har været i hardt vejr efter en rapport til den australske regering viste sig at indeholde opdigtede kilder og forkerte citater. Rapporten, som kostede den australske stat over 1,8 millioner kroner, blev kritiseret for at have flere AI-genererede fejl, der blandt andet omfattede fiktive akademiske referencer og fejlagtige dommercitater. Dette har ført til et krav om tilbagebetaling og skarpe politiske reaktioner.
Hvad gik galt med AI i Deloitte-rapporten?
Rapporten, der skulle evaluere et it-system til automatisering af sociale sanktioner, blev leveret med mindst 20 dokumenterede fejl. Ifølge eksperter som Chris Rudge fra Sydney University skyldes dette det, der kaldes AI-hallucinationer – hvor AI-modeller som ChatGPT forsøger at udfylde huller i data med antagelser og konstruerede svar. Deloitte har efterfølgende bekræftet flere fejl og udgivet en revideret version, hvor flere fejlagtige citater er fjernet, og brugen af AI-modellen Azure OpenAI er deklareret.
Danske erfaringer med AI i Deloitte
I Danmark bruger Deloitte også generativ AI, men med et klart fokus på ansvarlighed og kvalitetssikring. Michael Winther, leder for AI hos Deloitte i Norden, understreger, at teknologien aldrig anvendes blindt. Alle AI-genererede resultater bliver altid kvalitetssikret af menneskelige eksperter og gennemgår streng intern træning. Dette adskiller den danske praksis fra den australske sag og illustrerer vigtigheden af at kombinere AI med faglig indsigt.
Hvorfor er ansvarlig brug af AI vigtig?
AI kan revolutionere mange områder, men den australske sag viser tydeligt, hvad der kan ske, når man overlader for meget til maskiner uden menneskelig kontrol. Fejlene i Deloitte-rapporten kunne have alvorlige konsekvenser for offentlige beslutninger og tilliden til konsulentbranchen. Derfor er det afgørende, at virksomheder som Deloitte i Danmark følger strenge retningslinjer, validerer AI-resultater nøje og sikrer, at teknologien kun anvendes, hvor den giver reel værdi.
Eksempler på ansvarlig AI i praksis
- Intern uddannelse af medarbejdere i AI-etik og kvalitetssikring.
- Manuel verifikation af AI-genererede data og referencer.
- Åbenhed om brugen af AI i rapporter og analyser.
- Begrænset anvendelse af AI til områder, hvor faglig vurdering er mulig.
Hvad kan danske virksomheder lære af Deloitte-sagen?
Den australske sag er en vigtig lærestreg for danske virksomheder og offentlige institutioner, der overvejer at integrere AI i deres arbejde. Det handler ikke kun om teknologi, men i høj grad om processer, ansvar og menneskelig indsigt. Hvis man undlader at kvalitetssikre AI-resultater, risikerer man fejl, tab af tillid og økonomiske tab.
Er du interesseret i, hvordan man beskytter sig mod digitale risici, kan du læse vores artikel Sadan beskytter du dig mod bedrageri mod ældre i Sydsjælland og Lolland Falster, der også belyser betydningen af sikkerhed i digitale løsninger.
Politisk og offentlig reaktion på AI-fejl
Den australske skandale har skabt stor politisk utilfredshed. Senator Barbara Pocock fra Greens har kritiseret Deloitte for at have misbrugt AI og mener, at virksomheden skal betale hele beløbet tilbage. Også Labour-senator Deborah O'Neill kalder det et 'human intelligence problem' og påpeger, at Deloitte har overladt det hårde arbejde til AI i stedet for mennesker. Disse udtalelser understreger den voksende bekymring for, hvordan AI bliver anvendt i store organisationer.
Fremtidens AI: muligheder og udfordringer
AI-teknologiens potentiale er enorm, men den australske Deloitte-sag minder os om, at der er klare grænser for, hvad AI kan og bør gøre uden menneskelig overvågning. For danske virksomheder og offentlige aktører bliver det afgørende at udvikle robuste retningslinjer for AI-brug, investere i medarbejderuddannelse og fastholde en kritisk tilgang til AI-genererede data.
Det er også vigtigt at følge med i udviklingen, som blandt andet kan ses i internationale debatter og cases, fx Simon Stenspils kamp mod nethindeløsning, der viser, hvordan teknologiske fremskridt kan have både positive og negative konsekvenser.
Konklusion: ansvarlig AI er vejen frem
Deloitte-skandalen i Australien fungerer som en vigtig advarsel om farerne ved ukritisk brug af AI i konsulentbranchen og andre sektorer. I Danmark er der gode eksempler på, hvordan AI kan anvendes som et værdifuldt værktøj, når det kombineres med menneskelig ekspertise og ansvarlighed. For at høste AI’s fulde potentiale uden at gå på kompromis med kvalitet og etik, skal danske virksomheder fortsætte med at implementere klare retningslinjer, uddannelse og kontrolmekanismer.
På den måde kan AI blive en styrke – ikke en risiko – i fremtidens erhvervsliv.
TAGS:
Redaktionen
Journalist hos PresseNyheder