Mein Abend mit dem Bard AI Chatbot: Wie ein Streit mit einem Liberalen
Liberaler Bias bei AI Chatbots
ChatGPT und andere KI-Chatbots werden Ihnen sagen, dass sie keine politische Voreingenommenheit haben, obwohl sie tendenziell mit einem leichten liberalen Bias programmiert sind. Ihre Antworten tendieren jedoch im Allgemeinen dazu, sehr liberal zu sein, da sie auf „generativen“ Chatbots basieren, die auf „großen Sprachmodellen“ – Algorithmen – basieren. Diese Modelle wurden umfangreich mit Internetdaten trainiert und haben eine enorme Menge an Informationen aufgenommen.
Medien und politische Meinungen
Die Mainstream-Nachrichtenmedien haben einen liberalen Bias und neigen dazu, konservative Standpunkte nicht zu veröffentlichen. Zum Beispiel veröffentlichen sie oft Artikel, die erklären, warum Geschlechtsidentität fließend oder nicht-binär ist und die Notwendigkeit von Pronomen unterstützen, würden aber fast nie einen Artikel veröffentlichen, der gegen diese Themen argumentiert. Ein weiterer Faktor ist, dass Menschen, die Veränderungen wollen, tendenziell lauter sind als diejenigen, die wollen, dass die Welt so bleibt, wie sie ist.
Algorithmische Filterung und Training
Bard erklärte seinen Schulungsprozess und gab an, dass ein sehr großes „Datenset von Text und Code, das von Webseiten und anderen Quellen extrahiert wurde“, gelesen wurde. Dieses Datenset wurde sorgfältig gefiltert, um schädliche oder irreführende Inhalte zu entfernen, und wurde ausgewählt, um eine breite Palette von Themen und Schreibstilen zu repräsentieren. Die Entfernung von konservativen Positionen aus dem Mainstream führt automatisch dazu, dass sie an den Rand gedrängt werden.
Original Artikel Teaser
My Evening with Bard AI Chatbot: Like Arguing with a Liberal
By ITU Pictures from Geneva, Switzerland – https://www.flickr.com/photos/itupictures/27254369807/, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=69218458 ChatGPT and other AI chatbots will tell you that they do not have a political bias, although they tend to be programmed with a slight liberal bias. In general, however, their responses tend to be very liberal because they are “generative” chatbots based on “large language models” — algorithms. These models were trained extensively on internet data, absorbing vast amounts of information. According to Bard AI (now called Gemini), this data underwent a credibility filter. Bard AI asserted that it only processed content from reliable sources, including established institutions, academic journals, and reputable news organizations. As a follow-up, I rattled off the names of conservative media outlets, asking
Details zu My Evening with Bard AI Chatbot: Like Arguing with a Liberal