AI används nu för att lura människor med röster som låter helt verkliga. En ny rapport varnar för att sårbara grupper drabbas hårdast och i Sverige pekas pensionärer ut som särskilt utsatta.
I vissa fall används teknik som gör att rösten låter som offrets eget barn eller barnbarn, vilket gör situationen extra svår att genomskåda.
Metoden bygger ofta på stress och starka känslor, där den som ringer påstår att något akut har hänt och att pengar behövs omedelbart. Det gör att många agerar snabbt utan att kontrollera uppgifterna.
En ny global rapport från World Economic Forum visar att AI snabbt förändrar hur bedrägerier genomförs.
Tekniken gör det möjligt att skapa realistiska mejl, ljud och videor som är mycket svåra att skilja från verkligheten. Det handlar också om falska dokument som kan passera traditionella kontroller.
Rapporten lyfter särskilt att AI förstärker riskerna för sårbara grupper som i allt högre grad utsätts för manipulation och bedrägerier.
Det som gör utvecklingen särskilt allvarlig är hur snabbt röstkloning har blivit både tillgänglig och träffsäker.
Med dagens AI-verktyg kan en bedragare återskapa en persons röst med bara några sekunders ljud. Material kan hämtas från sociala medier, videos eller telefonsvarare. Därefter kan rösten användas i realtid i ett samtal.
Rapporten beskriver hur AI inte bara ökar volymen av bedrägerier utan också deras precision. Angripare kan analysera information om sina offer och anpassa både språk, ton och innehåll för att öka trovärdigheten.
Det innebär att ett telefonsamtal inte längre bara låter trovärdigt utan också känns personligt. En bedragare kan referera till familjemedlemmar, tidigare händelser eller andra detaljer som stärker illusionen.
Samtidigt gör AI det möjligt att skala upp den här typen av attacker. Där en bedragare tidigare kunde ringa ett fåtal personer kan samma metod nu användas mot tusentals samtidigt.
Även om rapporten talar om sårbara grupper i bred mening är kopplingen tydlig.
Äldre personer är ofta mer utsatta för just den här typen av bedrägerier. Det handlar både om ekonomiska faktorer och om beteenden. Många har sparade tillgångar och är vana vid att hantera ärenden via telefon.
När tekniken dessutom gör samtalen mer trovärdiga ökar risken ytterligare.
Hur kraftfull tekniken är syns redan internationellt.
Rapporten lyfter exempel där deepfakematerial använts för att lura människor i stor skala, bland annat genom att imitera välkända personer i olika sammanhang.
Det visar att tekniken inte längre är experimentell utan redan används i organiserad brottslighet.
Tidigare gick många bedrägerier att känna igen på språkfel eller märkliga formuleringar.
Med AI försvinner dessa varningssignaler. Bedragare kan tala korrekt svenska, använda rätt ton och anpassa sitt budskap efter mottagaren.
Det gör att även personer som normalt är försiktiga kan bli lurade.
Så skyddar Du Dig:
Var extra uppmärksam om någon ringer och säger att det är en anhörig i kris
Lägg på och ring tillbaka på ett nummer Du själv har sparat
Kontrollera alltid med en annan närstående innan Du för över pengar
Lämna aldrig ut koder eller bankuppgifter
AI har gjort bedrägerier mer personliga och mer trovärdiga än tidigare. När rösten i telefonen låter som någon du litar på räcker det inte längre att lita på magkänslan.
Det krävs att man stannar upp, kontrollerar och vågar ifrågasätta även det som låter helt äkta.
Inga kommentarer:
Skicka en kommentar