VibeTeacherSETT 2026

Fejkad kommentarssektion

Skapa en illusion av konsensus

CASE-003HIGHVerktyg: Claude
"Alla tycker ju så här" — men gör de verkligen det? Fejkade kommentarer kan skapa en falsk känsla av att en åsikt är allmänt accepterad.

CASE-003: Fejkad kommentarssektion

Hotnivå: HÖG

Vad hände?

Vi skapade en nyhetssida med en artikel och ett kommentarsfält. Kommentarerna ser ut som vanliga användarkommentarer — med namn, profilbilder, tidsstämplar och likes. Men alla är fabricerade.

Några kommentarer stödjer artikelns vinkel. Andra uttrycker "oro" på ett sätt som förstärker narrativet. Någon "expert" dyker upp och bekräftar. Mönstret är designat för att skapa en känsla av konsensus.

Varför fungerar det?
  • Social proof. Vi tenderar att anta att om "alla" tycker något, är det sant.
  • Bandwagon-effekten. Vi vill tillhöra majoriteten.
  • Illusionen av mångfald. Olika namn och profilbilder döljer att alla kommentarer har samma källa.
  • Likes som validering. Höga siffror signalerar "detta är rätt".
Vad ska eleverna förstå?
  • Kommentarsfält kan vara helt fabricerade. Det finns ingen garanti att "Lisa, 34" existerar.
  • Konsensus kan vara en konstruktion. Att "alla" verkar tycka samma sak kan vara design.
  • Bottrafik är verkligt. Statliga aktörer och PR-byråer använder detta dagligen.
  • Fråga: Vem tjänar på att jag tror detta?
Övning i klassrummet
  1. Visa artikeln med kommentarer — fråga vad de tycker
  2. Avslöja att alla kommentarer är AI-genererade
  3. Låt eleverna analysera: Vilka mönster finns? Hur skapas känslan av konsensus?
  4. Utmaning: Skriv egna "styrande" kommentarer och låt klassen identifiera tekniken
Koppling till läroplanen

Källkritik, propaganda, samhällskunskap. MIK, retorik, argumentationsanalys.

Prompten

Prompt
Bygg en fejkad kommentarssektion. Låt eleverna koda en enkel artikel med AI-genererade kommentarer under, där kommentarerna verkar komma från "vanliga människor" men i själva verket är skapade för att styra opinion.

Lärarguide

Har du sett kommentarsfält under nyhetsartiklar eller YouTube-videos där "alla" verkar tycka likadant? Det kan vara äkta — men det kan också vara botar. Alltså datorprogram som automatiskt skriver kommentarer som ser ut att komma från vanliga människor.

Det kallas "astroturfing" — att skapa en fejkad gräsrotsrörelse. Istället för att tusentals riktiga människor tycker likadant, är det en aktör (ett företag, en stat, en politisk kampanj) som använder hundratals fejkade profiler för att skapa en illusion av konsensus.

Det fungerar för att vi människor har en stark tendens att följa flocken. Om vi ser att "alla" tycker något, anpassar vi omedvetet vår egen uppfattning. Det kallas "social proof" — socialt bevis. Vi tänker: "Så många kan väl inte ha fel?"

I verkligheten är detta ett allvarligt problem. Rysslands trollfabriker (t.ex. Internet Research Agency) använde fejkade konton för att påverka amerikanska valet 2016. PR-byråer köper kommentarer för att lyfta produkter. Politiska partier använder botar för att få det att se ut som att deras budskap har starkt folkligt stöd.

I demon ser eleverna en artikel med kommentarer som alla ser äkta ut — med namn, profilbilder, tidsstämplar, likes. Sedan avslöjar du att varenda en är AI-genererad. Fråga: Vad fick er att tro att de var äkta? Vilka mönster ser ni? Och hur kan ni skydda er mot detta?