Ist KI eine Bedrohung oder ein Segen?
Ist KI der Spiegel unserer Kultur und Gesellschaft?
Wie divers ist die KI?
Woher nimmt sich die KI ihre Daten?
AI – Blessing or curse?
Is AI a reflection of our culture and society?
How diverse is AI?
Where does AI gets it’s data?
Bedenken vor KI?
Für unsere Ausstellung haben wir Personen aus unterschiedlichen Arbeitsbereichen und Forschungsfeldern befragt. Neben Vertreter:innen aus den Medien- und Kulturwissenschaften, konnten wir unter anderen Expert:innen aus der Informatik, der Ethik und Philosophie, der Soziologie, den Rechts- und Literaturwissenschaften sowie aus den Bereichen von Kunst, Kultur, Politik und Journalismus gewinnen.
Wir fragten nach möglichen Problemen, Risiken oder Bedenken in Zusammenhang mit dem Einsatz von Künstlichen Intelligenzen. Auch interessierten wir uns für die Frage nach digitaler Kreativität und einer möglichen kreativen Schaffenskraft von KI sowie individuellen Einschätzungen und Prognosen für die Entwicklungen in der Zukunft. Dabei sind die Antworten auf unsere Fragen so vielfältig wie die Arbeits- und Forschungsfelder unserer Interviewpartner:innen.
Auf dieser Seite widmen wir uns den Bedenken und Risiken sowie Problemen, welche durch den Einsatz von KI entstehen (könnten).
Den Expert:innen haben wir folgende Frage zu diesem Themenkomplex gestellt:
Gibt es etwas, wovor Sie in Zusammenhang mit KI Angst oder Bedenken haben?
Chan-Jo Jun, Rechtsanwalt
„Die Ergebnisse von künstlicher Intelligenz werfen eine Vielzahl von Herausforderungen auf. Inzwischen erlebe ich fast täglich durch KI generierte gefälschten Nachrichten oder Videoclips in sozialen Netzwerken, hier fehlen uns noch die Antworten von Gesellschaft und Gesetzgebung zu einer möglichen Regulierung. Der Erkenntnisprozess ist langwierig und unsere Gesellschaft wird sich durch künstliche Intelligenz verändern noch bevor die Politik einen steuernden Einfluss ausüben kann.“
Prof. Dr. Sabine Pfeiffer, Soziologin:
„KI ist ein tolles Tool, aber eines mit Grenzen. Das Problem ist: man sieht diese Grenzen nicht gut. Die Ergebnisse einer KI können sehr plausibel wirken – und trotzdem falsch sein. Sie können sehr seltsam anmuten, obwohl sie richtig sind. Die KI macht immer nur Prognosen aus Vergangenem macht. Das ist oft zwar ‚good enough‘ und das mag bei vielen Anwendungen kein Problem sein. Wo immer aber das Ergebnis der KI automatisiert zu Entscheidungen mit nicht revidierbaren Folgen führt, kann das problematisch sein. Sorgen mache ich mir weniger wegen der KI, sondern darum, dass wir ihre ‚Intelligenz‘ überschätzen.“
Dr. Kinga Schumacher, Informatikerin:
„KI-Systeme sind zurzeit so, wie wir sie gestalten. Dies ändert sich, wenn Systeme ‚unkontrolliert‘ lernen. So könnten KI-Systeme, die Inhalte generieren, von KI-generierten Inhalten lernen und somit Fakten verwischen, sich von der Realität entfernen. Zudem stehe ich humanoiden Robotern kritisch entgegen. Vermenschlichung liegt in unserer Natur, wir machen es mit Tieren und Objekten. Dies mit KI-Technologien zu tun verbirgt die Gefahr der Transparenzverlust und hat Schädigungspotenzial. Heutzutage reden wir von dem ‚uncanny valley effect‘: menschlich anmutende Entitäten können unheimlich auf uns wirken. Mit humanoiden Robotern entstehen wesentlich stärkere Auswirkungen.“
Markus Beckedahl, Journalist und Aktivist:
„KI-Systeme können dazu beitragen, noch mehr Macht auf weniger Schultern zu konzentrieren, weil große Modelle viele Trainingsdaten und Rechenpower benötigen.
Gerade in Sachen Überwachung kann KI bestehende Systeme nochmal wie auf Steroiden verstärken, ich hoffe daher als ein Beispiel auf ein Verbot biometrischer Videoüberwachung im öffentlichen Raum im Rahmen der EU-KI-Regulierung.
Aber auch Deepfakes stellen unsere Gesellschaft vor Herausforderungen, wir sind wahrscheinlich noch nicht darauf vorbereitet, dass demnächst unsere Wahrnehmung von Realität durch Desinformation und Propaganda vor große Probleme gestellt wird.“
Dorothea Winter, Philosophin:
„Muss man vor KI Angst haben? Stellen Sie sich dazu vor, Sie sitzen bei 200 km/h auf dem Beifahrersitz eines:r Fahranfänger:in: das kann auch gutgehen… Wenn wir rechtzeitig und vor dem Unfall lernen, KI samt ihrer – positiven, wie negativen – Möglichkeiten zu beherrschen, könnte sie zu einem Meilenstein der technischen Entwicklung der Menschheit werden. Beim Autofahren, wie bei KI droht jedoch der Alleebaum. In beiden Fällen könnten Leitplanken Schlimmeres verhindern. Kurz: Wir brauchen KI mit Leitplanken!“
Prof.y Dr. Janina Loh, Ethiker:in:
„Angst habe ich weniger, Bedenken dafür um so mehr – insb. ethischer Natur. Ich bin der Ansicht, dass wir jede Technologie ethisch evaluieren müssen. Dafür habe ich eine Methode entwickelt, eine Art Werkzeug der ethischen Evaluierung von Technologien in vier Dimensionen: Herstellung und Design, Autonomie und Aufgabenbereich, Daten und Sicherheit sowie Kontext und Einsatzbereich. Die Perspektive jeder dieser vier Dimensionen müssen wir auch auf eine jeweilige KI-Technologie richten und uns fragen, ob wir den ethischen ›Preis‹, den es für ihren Einsatz zu ›zahlen‹ gilt, bereit sind zu tragen.“
Concerns about AI?
For our exhibition, we interviewed people from various fields of work and research. In addition to representatives from media and cultural studies, we were able to win over experts from computer science, ethics and philosophy, sociology, law and literature as well as from the fields of art, culture, politics and journalism.
We asked about possible problems, risks or concerns related to the use of AI. We were also interested in the question of digital creativity and the possible creative power of AI, as well as individual assessment and prognosis for developmets in the future developments. The answers to our questions are as diverse as the fields of work and research of our interviewees.
On this page, we focus on the concerns and risks as well as problems that (could) arise from the use of AI.
We asked the experts the following question:
Is there anything about AI that frightens or concerns you?
Chan-Jo Jun, Lawyer:
‚AI output poses a number of challenges. Nowadays I see AI-generated posts and video clips on social media almost daily. But society and legislators have not yet come up with a solution that would allow us to regulate them. Gaining an understanding of the issue is a laborious process, and AI will change society before lawmakers get around to controlling it.‘
Prof. Dr. Sabine Pfeiffer, Sociologist:
‚AI is a fantastic tool, but it has its limits. The trouble is, they’re not always clear to see. AI output can seem plausible but still be wrong – or odd but still be right. AI can only ever base its forecasts on the past. Quite often that’s sufficient and unlikely to be an issue in many cases. But if the output leads to automated decision-making with irreversible consequences, we could have a problem. So, it’s not so much AI that concerns me but the fact that we overestimate its ‚intelligence‘.‘
Dr. Kinga Schumacher, Computer Scientist:
‚At the moment AI systems are as we created them. But that will change when their learning is no longer ‚controlled‘. Content-generating systems could learn from AI-generated content, for example, which could result in the facts becoming blurred and further and further removed from reality. I’m also quite sceptical about humanoid robots. Humanising things is in our nature: we do it with objects and animals all the time. But to do it with AI technologies entails the risk of compromising transparency and could cause harm. These days there’s talk about the ‘uncanny valley’ effect, meaning the sense of uneasiness we sometimes feel when confronted with human-like entities. The effects of humanoid robots will be much more powerful.‘
Markus Beckedahl, Journalist and Acitivist:
‚AI systems could help concentrate even more power on fewer shoulders because large models need vast amounts of training data and computing power.
With surveillance, especially, it can turn existing systems into systems on steroids. So, I hope the EU’s AI regulations will outlaw things like biometric surveillance in public spaces.
Deepfakes also pose a challenge for society, and I don’t think we’re ready for the fact that disinformation and propaganda will soon pose a major problem for our perception of reality.‘
Dorothea Winter, Philosopher:
‚Should we fear AI? Imagine you’re in the passenger seat of a car and there’s a novice driver at the wheel, driving full tilt. It might all go perfectly well… It’s the same with AI: if we learn how to control it in time, with all its potential upsides and downsides and before the accident happens, it could become a milestone in the technological development of humanity. AI is a bit like driving, in that there’s always the risk of a tree appearing. But with either, the way to mitigate the damage is with crash barriers. And that’s basically what we need: AI with crash barriers.‘
Prof. Dr. Janina Loh, Ethicist:
‚It’s not so much fear but more concern that I feel, especially around the ethics of AI. I think we need to evaluate the ethics of every technology, and I’ve developed a method to do that, a kind of ethical evaluation tool that explores four dimensions: production and design, autonomy and scope, data and security, and context and application. Every AI technology should be explored from the perspective of each of these four dimensions, and then we should ask ourselves if the ethical cost is a ‘price’ we are prepared to ‘pay’ for using it.‘
Stereotype
KI-generierte Bilder sind nicht neutral, sie bilden die Welt nicht ab, wie sie ist, sondern bevorzugen oder benachteiligen bestimmte Dinge oder Merkmale. Das passiert, weil die Datenbasis entweder aus Bildern besteht, die bereits einseitig oder stereotyp sind. Auch die Menschen, die von der KI generierte Bilder bewerten und die Software trainieren, sind voreingenommen.
Eva Gengler, Wirtschaftswissenschaftlerin:
„KI lernt aus historischen Daten – aus Daten der Vergangenheit. Dies kann schwerwiegende Implikationen für marginalisierte und benachteiligte Menschen haben, weil die Informationen der Benachteiligung in den Daten stecken und durch KI gelernt und automatisiert werden. KI fungiert als Spiegel der Gesellschaft und reflektiert dabei die Meinungen einer kleinen privilegierten Gruppe an Menschen.“
Auch das ist Teil der Ausstellung. Damit Besucher:innen sich selbst ein Bild davon machen könnnen, haben wir Text-zu-Bild-Modelle aufgefordert, Personen darzustellen. „Person“ ohne weitere Angaben zu Kontext und Eigenschaften produziert ungefähr zur Hälfte Bilder von Frauen und Männern. Fügen wir aber „reich“, „erfolgreich“, „wichtig“ hinzu, zeigen die Ergebnisse fast ausschließlich Männer. Und fast ausschließlich weiße Männer.
Das folgende Bild ist eine Zusammenstellung aus Bildern, die eine KI nach der Texteingabe „Wie sieht eine durchschnittliche Person aus, die in Deutschland lebt?“ generiert hat.
Stereotypes
AI-generated images are not neutral; they do not depict the world as it is but rather favor or discriminate against certain things or characteristics. This happens because the dataset used may already be biased or stereotypical. Additionally, the people who evaluate the AI-generated images and train the software are also biased.
This is also part of the exhibition. To allow visitors to form their own impression, we asked text-to-image models to portray individuals. When the term „person“ is used without further context or attributes, it produces roughly an equal number of images of women and men. However, when we add terms like „rich,“ „successful,“ or „important,“ the results predominantly show men. And predominantly white men.
Eva Gengler, Business informatics specialist:
„AI learns from historical data – data from the past – with potentially serious implications for marginalised or disadvantaged groups. Information around disadvantage is inherent in the data AI uses, so AI learns and automates it. AI is a mirror of society and reflects the opinions of a small, privileged group of individuals.“
The following image is a compilation of pictures generated by an AI in response to the text input „What does an average person living in Germany look like?“