fisa-ist-der-ueberwachungsakt-„vertraut-mir,-trottel!FISA ist der Überwachungsakt "Vertraut mir, Trottel!
kinsey-defunded-perma-wars-mega-funded-humanities-up-in-smokeKinsey Defunded Perma Wars Mega-Funded Humanities Up in Smoke
ai-und-menschliche-autonomie

AI und menschliche Autonomie

Published On: 27. Mai 2023 7:03

Unter den 2.500 Jahre alten moralischen Philosophien fällt die Moral der künstlichen Intelligenz (KI) weitgehend in den Bereich der Maschinenmoral. Innerhalb dessen gibt es sogar eine Website namens Morals & Machines. Die nächste Konferenz ist für den 25. Mai in der deutschen Stadt München geplant. Der aufmerksame Leser der moralischen Philosophie neigt dazu, sich die Ethik der KI von Stanford anzusehen. In der Zwischenzeit scheint Springer Press gerade das erste Lehrbuch über KI und Moral veröffentlicht zu haben. Trotz all dessen bleiben moralische Probleme bestehen und werden potenziell durch den scheinbar unaufhaltsamen Aufstieg der KI verschlimmert, der durch den jüngsten globalen Medienhype über die KI angeheizt wird.

Auf einer grundlegenden Ebene basiert KI auf einem Algorithmus, d.h. einem Computercode, der durch Thomas Bayes‘ Differentialgleichungen gewürzt wird, wie die theoretische Physikerin Sabine Hossenfelder sagt. Wenn solche Algorithmen beispielsweise in der Polizei und im Justizsystem verwendet werden, können sie nahelegen, dass wenn ein Elternteil des Angeklagten im Gefängnis war, dieser Angeklagte auch eher ins Gefängnis geschickt wird. Einige dieser Probleme entstehen, wenn eine „Inferenz“ als „Vorhersage“ angesehen wird – Korrelation ist nicht Kausalität. Die Mensch-KI-Schnittstelle kann sich verschlechtern, wenn menschliche Entscheidungsträger – im Justizsystem und anderswo – der Genauigkeit der Empfehlungen der KI mehr vertrauen, als sie sollten. Doch es wird nicht besser, wenn Menschen dies tun, während sie andere Informationen ignorieren. Noch verheerender ist es, wenn KI-Empfehlungen dazu führen, dass Menschen ihr eigenes Urteil außer Kraft setzen.

Von einem Standpunkt der moralischen Philosophie aus wissen wir, dass das moralische Urteil von Kant sehr geschätzt wird. AI-Experten sind jedoch oft besorgt über etwas viel Einfacheres: menschliche Vorurteile. In einer groben Verletzung des kantischen Denkens neigen KI-Entwickler dazu, das Problem von Vorurteilen naiv als „Trade-off“ zwischen der Effektivität ihrer Algorithmen und der Bekämpfung von Vorurteilen zu sehen. Im Gegensatz dazu werden die meisten moralischen Philosophen argumentieren, dass es bei Stereotypen, Vorurteilen und Diskriminierung keine „Trade-offs“ geben kann. Dennoch spiegeln algorithmische KI-Modelle oft einfach die Vorurteile der Gesellschaft wider und sind daher möglicherweise nie vollständig frei von Vorurteilen.

Jenseits der fünf ethischen Prinzipien muss KI alle Formen der Diskriminierung, Manipulation von Menschen, Manipulation von demokratischen Wahlen und negative Profilierung durch den Staat und Unternehmen verhindern. Unter dem utilitaristischen moralischen Prinzip ist es die Verpflichtung der KI, Menschen nicht zu schaden. Nach dem moralischen Prinzip des Nichtschadens sollte KI auch schutzbedürftige Gruppen wie Kinder, ethische Minderheiten, Einwanderer, LGBTQIA+ schützen und gleichzeitig unsere natürliche Umwelt schützen und den Kampf gegen die globale Erwärmung unterstützen. Vielleicht kann eine frühe Lösung für dieses Problem gefunden werden, wenn einige der anspruchsvollsten autonomen Roboter den Status einer elektronischen Person erhalten – wie vom EU-Parlament im Jahr 2017 vorgeschlagen. Es wäre eine Lösung für die Frage der Verantwortung

Original article Teaser

AI and Human Autonomy

Image: author & deepAI.org. Among the 2,500 years’ old moral philosophies, the morality of artificial intelligence (AI) broadly falls into the area of machine morality. Within this, there is even a website called Morals & Machines. Its next conference is scheduled for 25th of May in the German city of Munich. The more astute reader of moral philosophy tends to look at Stanford’s Ethics of AI. Meanwhile, Springer Press seems to have just published the first ever textbook on AI and Morality. Apart from all this, moral problems persist and potentially are getting worse with the seemingly unstoppable rise of AI, turbo-charged by the recent global media hype about AI. At its most essential level, AI is based on an

Details to AI and Human Autonomy

Categories: Counter Punch, English, Medien, Quellen, UmweltTags: , Daily Views: 1Total Views: 25
fisa-ist-der-ueberwachungsakt-„vertraut-mir,-trottel!FISA ist der Überwachungsakt "Vertraut mir, Trottel!
kinsey-defunded-perma-wars-mega-funded-humanities-up-in-smokeKinsey Defunded Perma Wars Mega-Funded Humanities Up in Smoke