Je moet niet alles geloven wat je op internet leest. Maar wat dan wel? Een onderzoeksteam van Google stelt een nieuw model voor dat zoekresultaten rangschikt op basis van betrouwbaarheid.
De zoekmachine gebruikt op het moment het aantal inkomende links naar een website als een beoordeling voor kwaliteit. Dat bepaalt hoe hoog een site terechtkomt in de zoekresultaten. Pagina’s waar veel andere sites naartoe verwijzen, komen daardoor hoger in de ranking. Het nadeel van dit systeem is dat websites vol misinformatie zich omhoog werken in de ranking als genoeg websites ernaar linken.
AI-assistent kan 113-hulpverlening ondersteunen
Dataspecialist Salim Salmi maakte een AI-tool die 113-hulpverleners ondersteunt.
Websites scoren
Het onderzoeksteam van Google heeft een nieuw systeem ontworpen dat de kwaliteit van een website meet. Dit systeem meet de hoeveelheid incorrecte informatie op een internetpagina in plaats van het aantal inkomende links naar een site. ‘Een bron die slechts enkele valse feiten bevat, beschouwen we als betrouwbaar’, schrijft het team in het onderzoeksverslag. Zo kunnen de zoekresultaten in Google gesorteerd worden op basis van betrouwbaarheid in plaats van de reputatie op het web.
De score die het team aan elke internetpagina toekent, noemen ze de Knowledge-Based Trust Score.
Kennisbank
De software maakt gebruik van de Knowledge Vault, de enorme opslag van feiten die Google van het internet heeft gehaald. Feiten waar het web het unaniem over eens is, zijn een redelijke indicatie voor waarheid. Webpagina’s die tegenstrijdige informatie bevatten, staan een stukje lager in de zoekresultaten.
Apps voor betrouwbaarheid
Er bestaan al veel apps die internetgebruikers helpen de waarheid boven water te halen. LazyTruth is een browserextensie die je inbox scant en neppe e-mails eruit haalt. Emergent, een project van het Tow Center for Digital Journalism aan de Colombia University in New York, haalt geruchten binnen van prullerige websites en verifieert of weerlegt ze aan de hand van kruisverwijzingen naar andere bronnen.
LazyTruth-ontwikkelaar Matt Stempeck, nu directeur civic technology bij Microsoft in New York, wil software ontwikkelen die kennis uit factchecking services zoals Snopes, PolitiFact en FactCheck.org exporteert zodat iedereen er eenvoudig toegang tot heeft.
Volgens Stempeck zijn tools zoals LazyTruth online handig, maar is het corrigeren van de misvattingen die ten grondslag liggen aan die informatie moeilijker is. ‘Mensen voelen zich nogal eens aangevallen’, zegt Stempeck. ‘Als ze antwoorden in Google zoeken, zijn ze er misschien wat ontvankelijker voor.’
Lees ook: