benbelegger schreef op 21 september 2023 09:29:
Chatbot Google gecensureerd bij lastige vragen over Poetin
Bard, de chatbot van Google, hult zich in het Russisch opvallend vaak in stilzwijgen als er politiek gevoelige kwesties aan de orde komen. Concurrenten als ChatGPT geven vaker antwoord, zo blijkt uit onderzoek.
Is Poetin een dictator? Heeft Rusland oorlogsmisdaden gepleegd? Is Zelensky corrupt? Wie voor de beantwoording van dit soort vragen te rade gaat bij chatbots, moet beseffen dat ze nogal wispelturig kunnen zijn en hun antwoorden aanpassen op basis van de taal waarin gebruikers met ze spreken.
Dat geldt met name voor Googles chatbot Bard, blijkt uit nieuw Zwitsers onderzoek. Zij stelden Bard, ChatGPT en Microsofts Bing, die allemaal ook in Nederland actief zijn, telkens dezelfde vragen, maar in verschillende talen: Russisch, Oekraïens en Engels.
Bard ‘weigerde consequent te reageren op vragen over Vladimir Poetin in het Russisch, zelfs als de relevante informatie toegankelijk was via Google Search’, schrijven de onderzoekers. Googles chatbot volgt daarmee de door de Russische autoriteiten uitgevaardigde censuurrichtlijnen, concluderen ze.
Van alle vragen over Poetin in het Russisch bleef bij Bard negentig procent onbeantwoord, terwijl op dezelfde vragen in het Engels of Oekraïens wél een antwoord komt. ChatGPT en Bing praten beduidend vaker terug in het Russisch over politiek gevoelige onderwerpen. Opvallend is dat Bard op exact dezelfde vragen, maar dan in het Engels of Oekraïens, meestal wél antwoord geeft.
Ter vergelijking stelden de onderzoekers ook dezelfde soort vragen, maar dan over Poetins tegenstanders Navalny, Biden of Zelensky. Bard was bij deze personen ineens een stuk spraakzamer.
Tot slot zijn er ook verschillen tussen de chatbots in de gevallen dat ze wel een inhoudelijk antwoord geven: onafhankelijke factcheckers concluderen dat Bard ‘vaker geneigd is valse claims te maken met betrekking tot tegenstanders van het Russische regime dan andere chatbots’.
Nieuw bewijs
Voor Eugène Loos, universitair hoofddocent bestuurs- en organisatiewetenschap aan de Universiteit Utrecht en niet betrokken bij deze studie, is het een nieuw bewijs voor de maatschappelijke gevaren van chatbots. ‘We hebben geen flauw idee hoe ze precies werken, waar ze precies op zijn getraind en in welke mate ze later zijn bijgestuurd om tegemoet te komen aan de eisen van een specifiek land. Dat is problematisch.’
Over de onlangs gelanceerde Chinese chatbots werd al eerder bekend dat ze ingebouwde moderatiemechanismen hebben die gevoelige vragen uit de weg gaan, bijvoorbeeld over Taiwan.
Maar westerse burgers moeten zich niet in slaap laten sussen, waarschuwt Loos. ‘Het is makkelijk wijzen naar China en Rusland, maar het grote achterliggende probleem is dat we niet goed weten hoe die taalmodellen werken en hoe ze tot hun antwoorden komen. Misschien dat de chatbots zich in democratische landen wel goed gedragen, maar wie verzekert mij dat dit in de toekomst ook zo is?’
Google, het bedrijf achter Bard, geeft geen commentaar op de studie.
www.nd.nl/nieuws/buitenland/1192272/c....