Tema: Nov 2017 – Personalisering, filterbubblor & fake news

En redaktörs roll är att skapa en bra mix av innehåll som tillgodoser mottagarens olika behov. Både utifrån vad redaktören tror att mottagaren vill ta del av, men även det denne ser är relevant och viktigt ur ett större samhällsperspektiv. Det som redaktören tror att mottagaren kan reagera på, något som kan ge nya insikter eller som kan vara viktigt för mottagaren att känna till.

På sociala medier och i sökmotorerna är det algoritmen som tar över rollen som redaktör. Utifrån en rad kända och okända parametrar ska algoritmen leverera det innehåll som den tror det är mest troligt att vi är intresserade av.

Vi kommer behöva algoritmen i en värld som fylls med allt mer innehåll, det är oundvikligt. Eftersom vi redan nu lever i ett informationsöverflöd utan tid eller möjlighet att själva sålla igenom allt det som publiceras. Vad vi däremot måste göra är att förändra hur vi tränar algoritmen och förändra vår syn på personanpassning för att kunna fortsätta nå ut med relevant och viktigt innehåll.

Klickbeten och falska nyheter lurar algoritmen med sitt höga engagemang

Att det man interagerar med inte automatiskt är det innehåll som man gillar, eller som är bra – det vet vi vid det här laget. Klickbeten har fått dåligt rykte och det ligger många psykologiska förklaringar bakom varför vi klickar på länkar, även fast vi vet att de sällan håller vad de lovar. När Kit kollat datan från sina rubriker som haft klickbetes-stil så ser de att dessa delas och klickas mer än andra artiklar – men har sämre genomläsning.

Under framförallt valet i USA 2016 har vi sett att sociala medier kan vara ett farligt verktyg i händerna på personer som vill påverka politiska strömningar genom smart utformad propaganda i form av falska nyheter. Verkliga eller overkliga händelser vinklas om utifrån de bubblor av föreställningar många lever inom. Det skapar enorm spridning och kan få stora konsekvenser. Både för samhället och den enskilda.

Men även om de stora techföretagen kommer till rätta med såväl falska nyheter som klickbeten, vilket de jobbar på i detta nu, så kvarstår problemet – kommer algoritmen ta sitt ansvar som redaktör?

Vi väljer det som väcker känslor och algoritmen lär sig det

Medierna suckar ofta över den nya digitala tidsåldern där sociala medier är platsen där innehåll delas och sprids. Det som är snaskigt, chockerande, känslosamt eller upprörande får mest spridning, delningar och klick. De stora, komplexa frågorna som är rör politiska skeenden, samhällsutveckling, den globala ekonomin, forskning, miljö, klimat och så vidare blir lätt för tråkigt och jobbigt.

Som konsumenter i dag vill vi ha personanpassat. I en värld som svämmar över av innehåll är det relevansen som är det viktiga. Vi vill bara ta del av det som vi upplever som relevant för oss just nu, resten vill vi rensa bort. Det gäller för såväl reklam som journalistik eller annat innehåll.

När vi själva får bestämma vad vi är intresserade av, vem vi ska följa och vad vi ser på olika plattformar så skapas det som kallas filterbubblor. Även inom vår filterbubbla utsätts vi för budskap vi inte gillar, som vi reagerar negativt på. Precis som Amanda Oxell poängterar i sin artikel om filterbubblor och de politiska partierna i Resumé.

Det stora problemet med filterbubblorna är inte att vi inte ser våra meningsmotståndares åsikter. Problemet är att det vi ser i vår filterbubbla styrs av engagemang och interaktion. Därför är det budskap som vi reagerar starkt positivt eller negativt på som algoritmen bedömer som mest relevant. Det gör att nyanserna lätt försvinner och världen ter sig allt mer svart och vit.

Framtiden kräver en ny syn på personanpassning

Därför anser jag att i arbetet med att personifiera och anpassa måste algoritmen tränas till att likna en erfaren och ansvarstagande redaktör. Algoritmen måste kunna värdera utifrån fler aspekter än reaktioner i form av klick och likes.

Men hjälp av utvecklingen av AI kan vi lära algoritmerna att läsa av både små och stora strömningar i samhället och förutse vilket information vi kommer behöva framöver för att kunna ta välinformerade beslut. Algoritmen kan lära sig att lyfta viktiga ämnen som inte fått tillräckligt med uppmärksamhet och även förslå till innehållsskapare och journalister vinklar att använda för att nå ut bättre. Eller upplysa om kunskapsluckor som behöver fyllas.

I framtiden kommer vi som konsumenter söka oss till de tjänster som både erbjuder det vi vill ha men också det vi behöver. Där den data som ligger till grund för ens personliga utbud av innehåll inte bara baseras på preferenser och interaktion utan där AI förutser våra behov och vidgar våra vyer.

Istället för att fokusera personanpassningen på ”vad”, alltså vilket innehåll som bedöms som relevant, så behöver det fokuseras på ”hur” och ”när”. Framtidens algoritmer måste veta när ett budskap ska presenteras och på vilket sätt. Så kommer vi kunna spräcka filterbubblorna, fortsätta sprida bra innehåll, nå ut med viktigt information och hålla journalistiken vid liv.

Sen vem som bestämmer vilket innehåll som ska anses som viktigt och vilka värden som algoritmen ska utgå från – ja det blir en fråga för oss människor att jobba med.