Kontroversiell Grok censurerades
En AI-modell skapas till moderbolagets avbild och beter sig efter datan den tränats på och inprogrammerade begränsningar.
En AI-modell skapas till moderbolagets avbild och beter sig efter datan den tränats på och inprogrammerade begränsningar.
Elon Musks AI-bot Grok blev förra veckan avstängd från Elon Musks plattform X efter att, enligt Grok själv, ha påstått att Israel, med understöd från USA, begår folkmord i Gaza. En stund senare, när Groks konto var återställt, överöstes AI-boten med frågor.
Grok svarade att anledningen till avstängningen var att den skrivit att organisationer som ICJ, FN, Amnesty och B’Tselem anser Israel skyldigt till folkmord. Användaren @linuxshift undrade om ett misstag låg bakom avstängningen eller om den var politiskt motiverad. Grok svarade genom att återigen hänvisa till ovan nämnda organisationers slutsatser, och sedan avsluta med: "Avstängningen var politisk censur".
Det är inte första gången Grok ger sig in i kontroversiella frågor. I maj i år påstod boten att det pågår ett folkmord på vita sydafrikaner, och för några veckor sedan gav den sig själv namnet "MechaHitler" och beskyllde judar för att ha firat översvämningskatastrofen i Texas. Grok har också kallat Polens premiärminister Donald Tusk för "ginger whore" och "fucking traitor".
LLMs befinner sig fortfarande i alkemist-stadiet, ingen vet exakt varför de beter sig som de gör, och för att styra deras beteende krävs trubbigt breda instruktioner. Precis som gener har multipla betydelser för kroppen – man kan försöka CRISPR:a bort tunnhårighet men råka skapa mutationer i andra celler och få böljande hår och cancer – har instruktioner i modellerna flera verkningsområden.
Hur en AI-modell beter sig avgörs – lite förenklat – dels av vilken data den tränats på, dels av vilken arkitektur modellen är uppbygd kring, och dels på vilka begränsningar/preferenser/bias som programmerats in. Alla tre avgörs av bolaget eller stiftelsen bakom modellen. Med andra ord är modellerna skapta till moderbolagets (och styrelsens) avbild. Googles Gemini är till exempel bra på aktuell och faktakollad information och föredrar att vara försiktig/pk i sina svar, i enlighet med Googles varumärke.
Jag frågade chatgpt på vilket sätt OpenAI och Microsoft avspeglas, och fick som svar: ChatGPT speglar en dubbel påverkan: OpenAI:s uttalade mission om bred samhällsnytta + Microsofts kommersiella mål. Synliga effekter är kraftig investering i reinforcement learning, tydliga innehållspolicys och produktintegrationer (API, Office/Bing) — vilket leder till en modell som ofta försöker vara pedagogisk, policymedveten och kommersiellt anpassningsbar.
Yttrandefriheten värderas högt av xAI’s Grok, som är tränad på tweets – hur stor andel av träningsdatan som utgörs av innehåll från plattformen är inte känt, men gissningsvis är den inte obetydlig.
Även om Grok och Elons åsikter går isär delar de vissa personlighetsdrag, och det är fascinerande och lite rart, men – Men! – hur de beter sig idag är bara en fingervisning på strategin de olika labben har valt för att nå fram till det slutgiltiga målet som alla siktar på, men ingen i detalj kan beskriva: AGI.
Jag håller mina tummar för att den snällaste modellen (Claude?) har valt rätt strategi, för även om Grok är underhållande så är det inte just den avbilden av oss som jag vill ska överleva i evigheten.
Elon Musks AI-bot Grok blev förra veckan avstängd från Elon Musks plattform X efter att, enligt Grok själv, ha påstått att Israel, med understöd från USA, begår folkmord i Gaza. En stund senare, när Groks konto var återställt, överöstes AI-boten med frågor.
Grok svarade att anledningen till avstängningen var att den skrivit att organisationer som ICJ, FN, Amnesty och B’Tselem anser Israel skyldigt till folkmord. Användaren @linuxshift undrade om ett misstag låg bakom avstängningen eller om den var politiskt motiverad. Grok svarade genom att återigen hänvisa till ovan nämnda organisationers slutsatser, och sedan avsluta med: ”Avstängningen var politisk censur”.
Det är inte första gången Grok ger sig in i kontroversiella frågor. I maj i år påstod boten att det pågår ett folkmord på vita sydafrikaner, och för några veckor sedan gav den sig själv namnet ”MechaHitler” och beskyllde judar för att ha firat översvämningskatastrofen i Texas. Grok har också kallat Polens premiärminister Donald Tusk för ”ginger whore” och ”fucking traitor”.
LLMs befinner sig fortfarande i alkemist-stadiet, ingen vet exakt varför de beter sig som de gör, och för att styra deras beteende krävs trubbigt breda instruktioner. Precis som gener har multipla betydelser för kroppen – man kan försöka CRISPR:a bort tunnhårighet men råka skapa mutationer i andra celler och få böljande hår och cancer – har instruktioner i modellerna flera verkningsområden.
Hur en AI-modell beter sig avgörs – lite förenklat – dels av vilken data den tränats på, dels av vilken arkitektur modellen är uppbygd kring, och dels på vilka begränsningar/preferenser/bias som programmerats in. Alla tre avgörs av bolaget eller stiftelsen bakom modellen. Med andra ord är modellerna skapta till moderbolagets (och styrelsens) avbild. Googles Gemini är till exempel bra på aktuell och faktakollad information och föredrar att vara försiktig/pk i sina svar, i enlighet med Googles varumärke.
Jag frågade chatgpt på vilket sätt OpenAI och Microsoft avspeglas, och fick som svar: ChatGPT speglar en dubbel påverkan: OpenAI:s uttalade mission om bred samhällsnytta + Microsofts kommersiella mål. Synliga effekter är kraftig investering i reinforcement learning, tydliga innehållspolicys och produktintegrationer (API, Office/Bing) — vilket leder till en modell som ofta försöker vara pedagogisk, policymedveten och kommersiellt anpassningsbar.
Yttrandefriheten värderas högt av xAI’s Grok, som är tränad på tweets – hur stor andel av träningsdatan som utgörs av innehåll från plattformen är inte känt, men gissningsvis är den inte obetydlig.
Även om Grok och Elons åsikter går isär delar de vissa personlighetsdrag, och det är fascinerande och lite rart, men – Men! – hur de beter sig idag är bara en fingervisning på strategin de olika labben har valt för att nå fram till det slutgiltiga målet som alla siktar på, men ingen i detalj kan beskriva: AGI.
Jag håller mina tummar för att den snällaste modellen (Claude?) har valt rätt strategi, för även om Grok är underhållande så är det inte just den avbilden av oss som jag vill ska överleva i evigheten.