Kompensation För Stjärntecknet
Substabilitet C -Kändisar

Ta Reda På Kompatibilitet Med Stjärntecken

Fråga etikern: Är det rätt av Facebook att undertrycka konservativa nyheter?

Etik & Förtroende

Foto av Dave Pape via Flickr.

Gizmodo antände en eldstorm på sociala medier idag när den rapporterad att kuratorer för Facebooks 'trending'-sektion regelbundet sätter kibosh på högerlutande nyheter.

Berättelsen, som tillskrivs anonyma källor, var anmärkningsvärd delvis på grund av Facebooks status som en mediabehemoth som riktar en eldslang av trafik mot nyhetsorganisationer varje dag. Men det skapade också vågor eftersom Facebook har ansträngt sig för att göra sig själv som en opartisk mellanhand för nyheter, ett företag som serverar berättelser utan en vinkling. I ett svar till Gizmodos berättelse sa Facebook att de tog anklagelserna om partiskhet 'mycket allvarligt' och bekräftade sitt åtagande att tillhandahålla åsikter 'över hela det politiska spektrumet.'

På lite mer än ett decennium har Facebook gått från att starta ett studentrum till en av de största distributörer av nyheter och information över hela världen. Så hur ska vi reagera när en av de viktigaste mellanhänderna för journalistik avslöjas vara sammansatt av människor med mänskliga fördomar? Nedan är en frågestund med Kelly McBride, vicepresident för The Poynter Institute och dess medieetiker, om vad dagens rapport betyder för nyhetsbranschen.

Om Gizmodos påstående är korrekt och Facebooks nyhetskuratorer medvetet undvek konservativa nyheter, utgör detta ett problem? Om så är fallet, varför?

Detta är ett problem eftersom det visar förmågan att manipulera marknaden för idéer bakom kulisserna. Det är inget nytt, men det undergräver förespråkare för sociala medier som säger att Facebook är ett mer demokratiskt nyhetsdistributionsforum.

Vi har länge vetat att algoritmer har fördomar programmerade i deras urvalsprocess. Men detta påstående att människor åsidosatte urvalsprocessen undergräver hela idén med en algoritmisk nyhetslistor och flöden. Det antyder för mig att Facebook inte hade fullständig tilltro till deras användarbas. Detta är särskilt sant när du tar hänsyn till den anonyma källans påstående att teamet instruerades att hitta en mer neutral källa för information som var trendig baserat på initial rapportering från en konservativ webbplats.

Jag misstänker att det finns mer information om denna praxis, beskriven av icke namngivna källor, som hjälper oss att förstå vad Facebook försökte åstadkomma. Eftersom det inte är så mycket affärsmässigt förnuftigt för Facebook att i hemlighet manipulera trendande ämnen baserat på politisk synvinkel.

Skulle inte det fjärma en stor del av deras användare? Det måste finnas fler detaljer som kan hjälpa oss att förstå detta. Kanske, som en källa spekulerade, förfinade de algoritmen?

Nyhetsorganisationer så klart ha fördomar om vad de väljer att presentera. Är Facebooks preferens här verkligen så annorlunda än en tidning, tv-station eller digital startup?

Detta är lite svårare för publiken att urskilja, så det är mindre transparent och därför annorlunda. Det är lättare att upptäcka en mänsklig fördom när du vet att leta efter en. Fram tills nu trodde vi att teamet för trendämnen bara skrev rubriker och beskrivningar, utan att det faktiskt påverkade vår förståelse av vad som är trendigt.

Den här historien avslöjar att Facebooks rekommendationer inte är helt algoritmiskt drivna - de är delvis gjorda av människor, med mänskliga preferenser. Finns det åtgärder som Facebook kan vidta för att minska förekomsten av partiskhet i sina val?

Om du vill att publiken ska lita på dig är transparens alltid svaret oavsett om du pratar om mänsklig partiskhet eller maskinfördom. Det är lättare sagt än gjort, i båda fallen. Det är svårt för människor att exakt beskriva sina fördomar. Och algoritmer behöver lite opacitet om de ska vara resistenta mot manipulation.

Om Facebook kunde berätta mer om vad algoritmen berättigar till och vad algoritmen avfärdar, skulle det vara till hjälp. Om Facebook också kunde berätta för oss vad människor gör och inte gör, skulle vi ha mer information än vi gör nu och mer av en anledning att lita på det vi ser.

Facebook är en enorm avgörande faktor för de nyheter vi ser online. Har det ett ansvar att vara transparent om hur det tjänar oss berättelser?

Som nummer 1 drivkraft för publik till nyhetssajter har Facebook blivit den största kraften på idémarknaden. Med det inflytandet följer ett betydande ansvar. Det finns många sätt som Facebook skulle kunna leva upp till det ansvaret på. Tidigare har Facebook bekräftat att de erkänner sina demokratiska skyldigheter. Men det kan alltid göra mer.

Finns det några andra åtgärder som Facebook kan vidta?

Här är en galen idé: Tänk om Facebook (och andra företag som har tydlig förmåga att påverka idémarknaden) hade en offentlig redaktör, som The New York Times gör. Den personen skulle kunna undersöka och skriva om företaget från allmänhetens synvinkel, svara på frågor och förklara de värderingar som driver vissa beslut.

Poynters chefredaktör, Benjamin Mullin, bidrog till denna rapport.