
Zgjerimi i inteligjencës artificiale gjeneruese ka çuar në mjete të tilla si Microsoft Copilot në Windows, Edge, Bing dhe Microsoft 365 Ato janë bërë të ngulitura në jetën e përditshme të përdoruesve dhe bizneseve. Shkrimi i raporteve, përmbledhja e dokumenteve, analizimi i të dhënave ose përgjigjja e email-eve tani është çështje sekondash, por kjo "superfuqi" ka një anë negative: halucinacionet e famshme të inteligjencës artificiale.
Këto halucinacione janë përgjigje që tingëllojnë të arsyeshme, por në të vërtetë janë shpikje, të dhëna të shtrembëruara ose përfundime të pambështeturaKy nuk është një gabim i thjeshtë, i rastësishëm që do të zhduket magjikisht; është një kufizim strukturor i modeleve më të mëdha gjuhësore. Prandaj, nëse përdorni Copilot në Windows ose në ndonjë shërbim të Microsoft, do të duhet të kuptoni se cilat janë këto kufizime, pse ndodhin dhe çfarë mund të bëni për të minimizuar ndikimin e tyre.
Çfarë është saktësisht një halucinacion i mundësuar nga inteligjenca artificiale?
Kur flasim për halucinacionet në IA, i referohemi situatave në të cilat një model gjenerues, siç është Copilot, ChatGPT ose Binjakët, Prodhon informacione të rreme, mashtruese ose të paqëndrueshme me siguri të plotë.Duke e paraqitur sikur të ishte e vërtetë. Nuk "gënjen" qëllimisht, por rezultati praktik është i njëjtë: përmbajtje e sajuar.
Nga ana teknike, këto modele funksionojnë si motorë parashikues të tekstitAta trajnohen mbi sasi të mëdha informacioni dhe mësojnë modele statistikore. Kur gjenerojnë një përgjigje, ata parashikojnë se cila fjalë duhet të vijë pas asaj të mëparshmes; ata nuk konsultohen me një bazë të dhënash të strukturuar në kohë reale për të verifikuar çdo pjesë të të dhënave.
Kur modeli has një boshllëk informacioni, një pyetje të paqartë ose një kontekst të përcaktuar dobët, ai tenton të plotësoni boshllëqet me supozime të besueshmeKjo çon në referenca bibliografike inekzistente, figura të shpikura, përmbledhje që "hanë" të dhëna kyçe ose përshkrime që nuk përputhen me realitetin.
Ky fenomen nuk ndikon vetëm në tekst: ai njihet edhe si halucinacion kur një inteligjencë artificiale me vizion kompjuterik zbulon modele ose objekte që nuk janë aty, ose kur një sistem klasifikimi shënon diçka krejtësisht të padëmshme si kërcënim, ose anasjelltas.
Mënyrat se si manifestohen halucinacionet e inteligjencës artificiale
Halucinacionet nuk duken gjithmonë njësoj. Në varësi të rastit të përdorimit dhe llojit të modelit, ato mund të marrin forma të ndryshme. forma të ndryshme që duhen njohur për të ngritur vetullën në kohë.
Një nga më të zakonshmet është ajo e fakte të shpikura ose citate fiktiveNjë shembull nga jeta reale që u diskutua gjerësisht ishte ai i një avokati i cili përdori një model gjenerues për të përgatitur një padi dhe përfundoi duke paraqitur në gjykatë disa vendime gjyqësore që thjesht nuk ekzistonin, por që sistemi i përshkruante me shumë detaje.
Një model tjetër shumë i zakonshëm është përmbledhje të paplota ose të anshmeku IA lë jashtë nuanca të rëndësishme ose injoron pjesë të dokumentit origjinal. Në mjetet e produktivitetit si Copilot në Microsoft 365, kjo mund të përkthehet në raporte rreziku, përmbledhje shitjesh ose analiza të biletave që lënë jashtë pikërisht të dhënat kritike.
Gjithashtu gjetëm përmbledhje që drejtpërdrejt Ata plotësojnë boshllëqet me informacione të sajuaraNëse modelit i mungon konteksti ose është trajnuar me të dhëna të gabuara, ndonjëherë ai "nxjerr nga hiçi" paragrafë të tërë që nuk janë në burim. Në mjediset e korporatave, kjo mund të ketë një ndikim serioz në vendimmarrje.
Në raste të tjera, halucinacionet shfaqen si: pozitive të rreme ose negative të rremePër shembull, në sistemet e zbulimit të mashtrimeve, analizën e sigurisë kibernetike ose diagnozën mjekësore të asistuar nga inteligjenca artificiale, modeli mund të shohë një kërcënim aty ku nuk ka ose, edhe më keq, të anashkalojë një rrezik real.
Imazhet e gjeneruara me gabime anatomike absurde, makina me shumë rrota ose duar me gishta shtesë janë versioni vizual i të njëjtit fenomen: rezultate të paqëndrueshme që bien ndesh me logjikën njerëzore, rezultat i një modeli që i ka mësuar modelet në mënyrë të papërsosur.
Pse ndodhin halucinacione në modele si Copilot?
Nuk ka një shkak të vetëm për halucinacionet e inteligjencës artificiale. Ato zakonisht shkaktohen nga një një kombinim faktorësh që lidhen me të dhënat, dizajnin e modelit dhe përdorimin nga përdoruesiTë kuptuarit e këtyre elementëve ndihmon në zbutjen e tyre.
Së pari, cilësia dhe ekuilibri i të dhënave të trajnimit janë thelbësore. Nëse modeli është i trajnuar me të dhëna i paplotë, i vjetëruar, i anshëm ose thjesht i gabuarKëto mangësi pasqyrohen në atë që prodhon. Me shumë pak shembuj të një teme, ajo do të tentojë të "plotësojë" në mënyrën e vet; me shumë shembuj, mund të ngatërrojë zhurmën me sinjalin.
Një tjetër shkak i zakonshëm është gabime në rikuperimin e informacionitKur një sistem kombinon një model gjenerues me një shtresë kërkimi (për shembull, Copilot në Bing ose në dokumentet e kompanisë suaj), mund të ndodhë që pyetja të jetë formuluar keq, të jetë zgjedhur burimi i gabuar ose konteksti të humbasë gjatë rrugës.
Dizajni i vetë modeleve të mëdha luan gjithashtu një rol. Përshtatja e tepërt - kur një model është i mbipërshtatur me grupin e tij të trajnimit - mund të shkaktojë gjenerojnë rezultate të pabesueshme në përgjigje të inputeve të reja ose paksa të ndryshmeDhe kompleksitetet e gjuhës natyrore (paqartësitë, ironitë, zhargoni, kuptimet e dyfishta) mbeten një sfidë e rëndësishme.
Së fundmi, ekziston një komponent shumë i rëndësishëm: nxitja. tregues të paqartë, kontradiktore ose keqdashës Ato shkaktojnë shumë halucinacione. Nëse i kërkoni inteligjencës artificiale të bëjë diçka me shumë pak kontekst ose ia paraqisni një skenar jorealist sikur të ishte i vërtetë, modeli tenton ta pranojë atë në vend që të thotë "Nuk e di".
Edhe produktet shumë të përparuara kanë treguar këto kufizime. Kemi parë chatbot-e që mohojnë ngjarjet e fundit publikeAsistentë që "pranojnë" lajme të rreme ose motorë kërkimi të mundësuar nga inteligjenca artificiale që rekomandojnë praktika të rrezikshme bazuar në një keqinterpretim të rezultateve.
Pse është kaq e rëndësishme të shmangim ose të zvogëlojmë halucinacionet?
Mund të duket se një përgjigje e sajuar nuk është aq e keqe nëse thjesht pyet përsëri, por në kontekste profesionale ose me ndikim të lartë, Një halucinacion i vetëm mund të ketë pasoja të rënda.
Nga një këndvështrim etik dhe rregullator, organizatat që përdorin inteligjencën artificiale janë gjithnjë e më të detyruara të demonstrojnë një përdorim i përgjegjshëm, transparent dhe jo i dëmshëm të këtyre teknologjive. Lejimi i kalimit të përmbajtjes së fabrikuar në raporte, komunikime me klientët ose vendime të automatizuara shkon në drejtimin krejt të kundërt.
Në nivel biznesi, halucinacionet mund të shkatërrojnë besimin e klientëve, përdoruesve dhe punonjësvePër shumë njerëz, inteligjenca artificiale vazhdon të gjenerojë dyshime: ata kanë frikë për të dhënat e tyre, privatësinë ose punën e tyre. Nëse, përveç kësaj, shembuj të inteligjencës artificiale të lidhur me një markë që përhap informacion të rremë bëhen publike, reputacioni i saj vuan me shpejtësi.
Ekziston edhe problemi i vendimmarrje e painformuar mirëBizneset dhe agjencitë qeveritare po mbështeten gjithnjë e më shumë në analizat e të dhënave dhe modelet e inteligjencës artificiale për të planifikuar investimet, për të vendosur çmimet, për të menaxhuar rreziqet dhe për të përcaktuar përparësitë e burimeve. Nëse rezultatet e inteligjencës artificiale janë të pasakta, por pranohen si të vlefshme, gabimet mund të rezultojnë në humbje financiare, penalitete rregullatore ose, në sektorë si kujdesi shëndetësor, dëmtim të njerëzve.
Shtohen kësaj edhe rreziqet ligjore dhe financiarePërmbajtja e gjeneruar nga inteligjenca artificiale mund të shpifë dikë, të shkelë të drejtat e autorit, të promovojë praktika të paligjshme ose të shkelë rregulloret e mbrojtjes së të dhënave. Halucinacionet i amplifikojnë këto probabilitete sepse sistemi mund të përziejë fakte reale me trillime shumë të besueshme.
Copilot, Windows dhe IA “të bazuara” në të dhënat burimore
Në ekosistemin e Microsoft, Copilot është i integruar në Windows, Edge, Bing, Microsoft 365 dhe aplikacione biznesi si Dynamics 365Ky integrim i lejon inteligjencës artificiale të punojë me dokumentet, emailet, spreadsheet-et ose të dhënat e biznesit tuaj, por gjithashtu kërkon kujdes të madh ndaj halucinacioneve.
Një nga strategjitë që Microsoft dhe shitësit e tjerë po promovojnë është e ashtuquajtura zbulimi i themeleve ose verifikimi i vërtetimit. Ideja është të verifikohet, duke përdorur modele shtesë, që pretendimet e gjeneruara nga IA mbështeten në të vërtetë nga materialet burimore të disponueshme.
Në praktikë, Shënoni si halucinacion të mundshëm çdo informacion që nuk shfaqet në burimet e konsultuara.Nëse zbuloni informacione që nuk mund t’i gjeni në burime, mund ta shënoni si halucinacion të mundshëm, të ulni besueshmërinë e tij ose thjesht ta fshini.
Në produkte si Dynamics 365 Commerce, për shembull, Microsoft përshkruan se si funksionon përmbledhja e inteligjencës artificiale. Validoni duke krahasuar rezultatet me vlerat aktuale të entiteteve (numri i transaksioneve, shumat, llojet e rrezikut, etj.). Përveç kësaj, merren në konsideratë skenarët ku mungojnë të dhënat ose ku përdoruesit nuk kanë leje, pikërisht për të parandaluar që modeli të fabrikojë informacion ose të zbulojë më shumë sesa duhet.
Kjo qasje plotësohet nga kontrollet operative: Opsioni për të çaktivizuar përmbledhjen e inteligjencës artificiale Për hapësira pune ose faqe të caktuara, monitoroni komentet e përdoruesve dhe kufizoni madhësinë e dokumenteve të paraqitura në model për të shmangur problemet me gjatësinë dhe humbjen e kontekstit.
Përdorimi i inteligjencës artificiale në të dhëna të strukturuara dhe të patentuara Zbatimi i shtresave shtesë të verifikimit tregon një rrugë të qartë, megjithëse nuk i eliminon plotësisht halucinacionet.
Praktikat më të mira për reduktimin e halucinacioneve kur përdorni Copilot në Windows
Përtej përmirësimeve të zbatuara nga prodhuesit, ju, si përdorues, luani një rol kyç. Përshtatja e rutinave të caktuara kur punoni me Copilot në Windows ose me asistentë të tjerë mund të... zvogëloni në mënyrë drastike mundësinë e dhënies së informacionit të sajuar në dokumentet ose vendimet tuaja.
- Kërko gjithmonë një ton të saktë dhe të bazuar në fakte.Sidomos në kontekste profesionale.
- Specifikoni objektivat, audiencën dhe të dhënat kritike në kërkesëShpjegoni për çfarë do ta përdorni përmbajtjen, kush do ta lexojë atë dhe cilat të dhëna janë kritike.
- Kufizoni burimet që IA mund të përdorëKjo zvogëlon rrezikun e plotësimit të informacionit me të dhëna nga interneti që mund të jenë të vjetruara ose të keqinterpretuara.
- Bëni krahasime specifike dhe kërkoni justifikim. në vend të pyetjeve të hapura.
- Duke i kërkuar IA-së të tregojë të sajën arsyetim hap pas hapi (zinxhir mendimi) ose një shpjegim i shkurtër se si keni arritur në secilin përfundim ju jep një dritare për të zbuluar kërcime logjike ose referenca të dyshimta.
Verifikimi i fakteve: filtri thelbësor njerëzor
Sado të sofistikuara të jenë mjetet, hapi i verifikimit njerëzor mbetet absolutisht thelbësore kur ekziston rrezik për reputacionin, ligjor ose ekonomikBashkë-pilot mund t'ju ndihmojë të kurseni kohë, por nuk duhet të zëvendësojë gjykimin profesional.
Rregulli i parë është të mos ia besoni verifikimin e fakteve vetë inteligjencës artificiale. T'i kërkoni asaj të "kontrollojë burimet e veta" mund të ndihmojë në përsosjen e përgjigjes, por nuk mjafton. Sa herë që Copilot ju ofron lidhje, citate ose referenca, Klikoni dhe shikoni vetë që informacioni të shfaqet tamam ashtu siç është në burim.
Kushtojini vëmendje të veçantë zonave të ndjeshme, siç janë shëndetësi, ligj, financë, siguri kibernetike ose analizë riskuKëto janë fusha ku një halucinacion mund të ketë pasoja veçanërisht serioze. Në këto kontekste, këshillohet të verifikohet informacioni me burime zyrtare, baza të dhënash të specializuara ose ekspertë njerëzorë.
Një praktikë tjetër e dobishme është t'i thuash IA-së se pranoni pasigurinëMund të përfshish diçka të tillë në pyetjen e pyetjes: “Nëse nuk mund të gjesh burime të forta ose të dhëna të qarta, të lutem më thuaj se nuk ke informacion të mjaftueshëm në vend që të bësh supozime.” Kjo zvogëlon tendencën e modelit për të mbushur boshllëqet me trillime.
Më në fund, mësohuni t'i trajtoni daljet e bashkëpilotit si drafte që kanë nevojë për redaktimEdhe nëse teksti duket perfekt në shikim të parë, rishikojeni me kujdes, korrigjoni nuancat, hiqni çdo gjë që nuk mund ta verifikoni dhe përshtateni tonin me stilin tuaj ose atë të organizatës suaj.
RAG dhe teknika të tjera teknike për ankorimin e IA-së në të dhëna reale
Krahas udhëzimeve të përdorimit, ekziston një sërë teknikash teknike të hartuara për të reduktimin e halucinacioneve përmes vetë arkitekturës të zgjidhjeve të IA-së. Një nga më të përfolurat është e ashtuquajtura Gjenerimi i Shtuar i Rimëkëmbjes (RAG).
RAG konsiston në kombinimin e një modeli gjenerues me një sistem të rikuperimit të informacionit i cili, përpara se të gjenerojë përgjigjen, kërkoni dhe jepni fragmente përkatëse nga burime të verifikuaraNë vend që modeli "t'i krijojë të gjitha" nga ajo që mbart në pesha, ai ushqehet në mënyrë të qartë me pjesë dokumentesh, baza njohurish ose baza të dhënash të brendshme.
Në këtë mënyrë, kur përgjigjet, IA mbështetet në prova konkrete dhe të azhurnuaraNuk i eliminon plotësisht halucinacionet, por ul ndjeshëm frekuencën e tyre dhe e bën më të lehtë gjurmimin e origjinës së secilës deklaratë.
Përveç RAG, shumë platforma përfshijnë kontrollet e daljesValidimet automatike kontrollojnë formatet, diapazonin e vlerave, fushat e kërkuara dhe konsistencën e brendshme. Nëse përgjigjja e gjeneruar nuk i plotëson këto kritere, ajo hidhet poshtë ose dorëzohet për shqyrtim njerëzor.
Një taktikë tjetër është segmentimi i detyrave: në vend që të përdoret një mega-model për absolutisht gjithçka, detyrat hartohen rrjedha pune specifike sipas llojit të detyrës (shërbimi ndaj klientit, dokumentacioni teknik, analiza e riskut…), secila me grupin e vet të të dhënave, llojet e kërkesave dhe filtrat e vet.
E gjithë kjo integrohet më mirë kur ekziston një kulturë mbikëqyrjeje: mjete për të nisur rishikime njerëzore kur besimi i modelit është i ulët, për të regjistruar atë që është korrigjuar dhe për të mësuar nga ato gabime në versionet e mëvonshme të sistemit.
Kombinimi i arkitekturës, të dhënave dhe mbikëqyrjes njerëzore Kjo ju lejon të përfitoni nga IA gjeneruese, duke mbajtur nën kontroll sjelljen e saj të çrregullt dhe duke mbrojtur saktësinë, sigurinë dhe reputacionin e atyre që e përdorin atë.


