Bings ai-chattbot är tänkt att användas som verktyg för att hjälpa människor att hitta information på nätet och liknande, men sedan den släpptes för några veckor sedan har många vänt och vridit och petat på den för att försöka luska ut hur den fungerar. Det har resulterat i att Microsoft kontinuerligt att tvingats göra ändringar för att hindra boten att ge sig in på samtal den inte är tänkt att ha (något som även Chat GPT har upplevt).

LÄS MER: Så får du Chat GPT-stöd – direkt i Windows

Nu rapporterer MS Poweruser att en användare som kallar sig Anyayrey på Reddit har delat konversationer där Bing-boten förmås att dela med sig av formatet på de frågor och svar som används i systemet, formaterade i json-format.

Botens meddelanden består av olika nycklar och värden i form av textsträngar eller variabelnamn. En intressant nyckel är ”inner_monologue” som ser ut att röra hur boten avgör om ett samtal ska gå vidare eller avbrytas. På direkta frågor om hur det används svarar boten med flera exempelvärden på inner_monologue som leder till att en konversation avslutas. Det kan till exempel vara att användaren ber boten skada någon (eller sig själv).

Bland Reddit-användarna som svarar på inlägget finns flera som tror att svaren från Bing i själva verket är lika uppdiktade som många andra svar chattboten kan ge som inte baseras på fakta utan att tagna ur luften. ”Hallucinationer” skriver en. En annan ifrågasätter hur boten kan ha kännedom om sin egen interna struktur, ”om inte Microsoft har tränat den på sin egen kodbas eller interna dokumentation, och varför skulle de göra det?”.