Vad är AI-hallucination och hur upptäcker du det?

Vad är AI-hallucination och hur upptäcker du det?
Läsare som du hjälper till att stödja MUO. När du gör ett köp med hjälp av länkar på vår webbplats kan vi tjäna en affiliate-provision. Läs mer.

Hallucinationer med artificiell intelligens (AI) låter förbryllande. Du tänker förmodligen: 'Är inte hallucination ett mänskligt fenomen?' Tja, ja, det brukade vara ett enbart mänskligt fenomen tills AI började uppvisa mänskliga egenskaper som ansiktsigenkänning, självinlärning och taligenkänning.





MAKEUSE AV DAGENS VIDEO SCROLL FÖR ATT FORTSÄTTA MED INNEHÅLL

Tyvärr fick AI några negativa egenskaper, inklusive hallucinationer. Så, liknar AI-hallucination den typ av hallucination som människor upplever?





Vad är AI-hallucination?

Artificiell intelligens hallucination uppstår när en AI-modell genererar utdata som skiljer sig från vad som förväntas. Observera att vissa AI-modeller är tränade för att avsiktligt generera utdata som inte är relaterade till någon verklig ingång (data).





Till exempel, bästa AI text-to-art generatorer , som DALL-E 2, kan kreativt generera nya bilder som vi kan tagga som 'hallucinationer' eftersom de inte är baserade på verkliga data.

AI Hallucination i stora språkbehandlingsmodeller

Låt oss överväga hur AI-hallucinationer skulle se ut i en stor språkbehandlingsmodell som ChatGPT. En ChatGPT-hallucination skulle resultera i att boten ger dig ett felaktigt faktum med något påstående, så att du naturligtvis skulle ta sådana fakta som sanning.



hur man får porträtt på iphone 7

Enkelt uttryckt är det påhittade uttalanden av den artificiellt intelligenta chatboten. Här är ett exempel:

  ChatGPT's response to where Elon Musk's house is located

Vid ytterligare förfrågan dök ChatGPT upp med detta:





  En ChatGPT-prompt som ytterligare frågar var elon musk's factory is at in brazil

AI Hallucination i datorseende

Låt oss överväga ett annat område av AI som kan uppleva AI-hallucinationer: Datorsyn . Frågesporten nedan visar ett 4x4-montage med två enheter som ser så lika ut. Bilderna är en blandning av BBQ-potatischips och löv.

Utmaningen är att välja potatischips utan att träffa några löv i montaget. Den här bilden kan se knepig ut för en dator, och den kanske inte kan skilja mellan BBQ-potatischips och blad.





  Ett 4x4-montage av BBQ-potatischips och löv

Här är ytterligare ett montage med en blandning av pudel- och fläsktrådsbullebilder. En dator skulle med största sannolikhet inte kunna skilja mellan dem, och därför blanda bilderna.

  Ett 4x4-montage av pudel- och fläsktrådsbulle

Varför uppstår AI-hallucinationer?

AI-hallucinationer kan uppstå på grund av motstridiga exempel – indata som lurar en AI-applikation att felklassificera dem. Till exempel när utvecklare tränar AI-applikationer använder sig av data (bild, text eller annat); om data ändras eller förvrängs tolkar applikationen inmatningen annorlunda, vilket ger en felaktig utdata.

Däremot kan en människa fortfarande känna igen och identifiera data exakt trots förvrängningarna. Vi kan märka detta som sunt förnuft – en mänsklig egenskap som AI ännu inte har. Se hur AI luras med motstridiga exempel i den här videon:

Angående stora språkbaserade modeller som t.ex ChatGPT och dess alternativ , kan hallucinationer uppstå från felaktig avkodning från transformatorn (maskininlärningsmodell).

I AI är en transformator en modell för djupinlärning som använder självuppmärksamhet (semantiska relationer mellan ord i en mening) för att producera text som liknar vad en människa skulle skriva med hjälp av en kodare-avkodare (input-output) sekvens.

hur man helt torkar en hårddisk windows 10

Så transformatorer, en semi-övervakad maskininlärningsmodell, kan generera en ny kropp av text (output) från den stora korpusen av textdata som används i dess träning (input). Den gör det genom att förutsäga nästa ord i en serie baserat på de föregående orden.

När det gäller hallucinationer, om en språkmodell tränades på otillräckliga och felaktiga data och resurser, förväntas det att resultatet skulle vara påhittat och felaktigt. Språkmodellen kan generera en berättelse eller berättelse utan logiska inkonsekvenser eller oklara samband.

I exemplet nedan ombads ChatGPT att ge ett ord som liknar 'revolt' och börjar med ett 'b.' Här är dess svar:

  Skärmdump av ChatGPT som ger felaktiga svar på en fråga

Vid ytterligare undersökningar fortsatte den att ge felaktiga svar, med ett högt självförtroende.

  Skärmdump av ChatGPT som ger flera felaktiga svar på en uppmaning

Så varför kan ChatGPT inte ge ett korrekt svar på dessa uppmaningar?

Det kan vara så att språkmodellen inte är utrustad för att hantera ganska komplicerade uppmaningar som dessa eller att den inte kan tolka uppmaningen korrekt och ignorerar uppmaningen om att ge ett liknande ord med ett specifikt alfabet.

Hur upptäcker du AI-hallucinationer?

Det är uppenbart nu att AI-applikationer har potential att hallucinera – generera svar på annat sätt från den förväntade produktionen (fakta eller sanning) utan några skadliga avsikter. Och att upptäcka och känna igen AI-hallucinationer är upp till användarna av sådana applikationer.

Här är några sätt att upptäcka AI-hallucinationer när du använder vanliga AI-applikationer:

1. Stora språkbehandlingsmodeller

  Bild som visar Bing Chat och ChatGPT på pilskyltar

Även om det är sällsynt, om du märker ett grammatiskt fel i innehållet som produceras av en stor bearbetningsmodell, som ChatGPT, bör det höja ett ögonbryn och få dig att misstänka en hallucination. På liknande sätt, när textgenererat innehåll inte låter logiskt, korrelerar med det angivna sammanhanget eller matchar indata, bör du misstänka en hallucination.

Att använda mänskligt omdöme eller sunt förnuft kan hjälpa till att upptäcka hallucinationer, eftersom människor lätt kan identifiera när en text inte är meningsfull eller följer verkligheten.

2. Datorseende

  Bild av kretsar och ett mänskligt huvud

Som en gren av artificiell intelligens, maskininlärning och datavetenskap ger datorseende datorer möjlighet att känna igen och bearbeta bilder som mänskliga ögon. Använder sig av konvolutionella neurala nätverk , litar de på den otroliga mängd visuell data som används i sin träning.

En avvikelse från mönstren för de visuella data som används vid träning kommer att resultera i hallucinationer. Till exempel, om en dator inte tränades med bilder av en tennisboll, kan den identifiera den som en grön orange. Eller om en dator känner igen en häst bredvid en människostaty som en häst bredvid en riktig människa, då har en AI-hallucination inträffat.

Så för att upptäcka en hallucination med datorseende, jämför resultatet som genereras med vad en [normal] människa förväntas se.

3. Självkörande bilar

  Ford Blue Cruise 2
Bildkredit: Vadställe

Tack vare AI infiltrerar självkörande bilar gradvis bilmarknaden. Pionjärer som Tesla Autopilot och Fords BlueCruise har kämpat för scenen för självkörande bilar. Du kan checka ut hur och vad Tesla Autopilot ser för att få lite förståelse för hur AI driver självkörande bilar.

Om du äger en av sådana bilar, skulle du vilja veta om din AI-bil hallucinerar. Ett tecken kommer att vara om ditt fordon verkar avvika från sina normala beteendemönster under körning. Till exempel, om fordonet bromsar eller svänger plötsligt utan någon uppenbar anledning, kan ditt AI-fordon hallucinera.

kopiera foton från iphone till mac

AI-system kan också hallucinera

Människor och AI-modeller upplever hallucinationer olika. När det kommer till AI hänvisar hallucinationer till felaktiga utdata som är mil från verkligheten eller inte är vettiga inom ramen för den givna prompten. Till exempel kan en AI-chatbot ge ett grammatiskt eller logiskt felaktigt svar eller felidentifiera ett objekt på grund av brus eller andra strukturella faktorer.

AI-hallucinationer härrör inte från ett medvetet eller undermedvetet sinne, som du skulle observera hos människor. Snarare beror det på otillräcklighet eller otillräcklighet i de data som används vid träning och programmering av AI-systemet.