Fortsæt til indhold

Kunstig intelligens gør svindelforsøg sværere at gennemskue

Med kunstig intelligens kan man klone stemmer fra lydoptagelser, lave deepfakes fra billeder og video og kopiere tone og stil på tekster fra myndigheder, virksomheder eller privatpersoner.

Samfund
gs

Har du hørt om vishing, deepfakes, AI-stemmekloning eller spoofing? Begreberne referer til forskellige metoder, som svindlere kan bruge til at få fingrene i personlig eller økonomisk information fra uvidende ofre.

Hos Købstædernes Forsikring har de taget en temperaturmåling blandt danskerne, og her svarer seks ud af ti danskerne, at de har oplevet at være udsat for svindel ved køb og salg på nettet inden for de sidste tre måneder. Og med nem adgang til kunstig intelligens kan svindelforsøgene gøres langt sværere at gennemskue, ligesom teknologien åbner dørene til endnu flere måder, svindlerne kan snyde sig til adgang.

Derfor advarer flere myndigheder forbrugerne om, at AI-genereret snyd er en øget risiko. For eksempel advarer ENISA (Den Europæiske Unions Agentur for Cybersikkerhed) om, at brug af kunstig intelligens kan betyde hyppigere og mere overbevisende bedrageriforsøg. Tenerity, der rådgiver og hjælper kunder ved identitetstyveri og misbrug af personlige oplysninger, er partner med Købstædernes Forsikring, hvor forsikringskunderne modtager ekspertrådgivning, hvis de er udsat for svindel. Selskabet nikker til et øget risikobillede:

»Vi ved, at svindlere og hackere ofte tager ny teknologi til sig som nogle af de første i forsøget på at gøre deres angreb mere vellykkede. Med hjælp fra kunstig intelligens er det blevet enklere at lave falske emails, sms-beskeder, websider eller falske opslag / annoncer på sociale medier, som til forveksling ligner den ægte vare fra virksomheder, myndigheder eller privatpersoner. Derfor bliver det forventeligt kun sværere at gennemskue mulige svindelforsøg i fremtiden,« fortæller marketing manager Pernille Engestoft fra Tenerity i en pressemeddelelse.

Social manipulation

Social engineering (på dansk social manipulation) er en svindelmetode med medfart i Norden. Bedrageriforsøget starter typisk gennem en henvendelse fra en svindler, som udgiver sig for at være en naturlig autoritet som for eksempel en bankrådgiver, politibetjent, en kendt person, familie eller lignende, hvor svindleren vil forsøge at misbruge offerets tillid til at franarre personoplysninger.

Brugen af kunstig intelligens kan gøre svindel igennem social manipulation mere virkelighedstro. I medierne har vi for nyligt set TV-værten Ditte Haue blive misbrugt i en AI-genereret deepfake video på sociale medier til at lokke folk til at downloade en falsk app. ID-sikkerhedsselskabet Tenerity har håndteret én sag i Norge, hvor svindleren udgav sig for at være en nær relation. Det kunne svindleren gøre, fordi kunstig intelligens hjalp svindleren til at lyde præcis som den nære relation, vedkommende udgav sig for. Og værktøjerne er blevet så avancerede, at mange vil have svært ved at høre forskel. Selvom Tenerity ikke har oplevet svindeltilfælde med deepfakes eller AI-stemmekloning i sager om social manipulation i Danmark, advarer de mod lignende sager i nær fremtid.

Derfor opfordrer Morten Jepsen, underwriting direktør i Købstædernes Forsikring, danskerne til at være særligt opmærksomme:

»Hvis man oplever at blive ringet op af for eksempel et familiemedlem eller en ven, som beder om at overføre penge eller dele privat information, skal man være på vagt. Med en simpel intelligent løsning, kan svindlere misbruge en eksisterende lyd- eller videooptagelse til lave falske talebeskeder, som de vil. Derfor skal man altid forsøge at dobbelttjekke en mistænkelig henvendelse ved at kontakte personen via andre kanaler,« fortæller han.