Impulse für Wissen

roboter.jpg
Matthias Spielkamp

20. Innovationsforum

Wissenschaftliche Leitung: Matthias Spielkamp

04. November 2019
Haus Huth, Berlin

Künstliche Intelligenz (KI) ist ein Thema mit hoher Priorität für viele Entscheidungsträger nicht nur in Unternehmen, sondern auch im politischen Bereich. Vor diesem Hintergrund trafen sich rund 30 Manager, Wissenschaftler und Vertreter unterschiedlicher gemeinnütziger Organisationen zur Jubiläumsveranstaltung des Innovationsforums – es war die 20. Veranstaltung in dieser Reihe – um die Auswirkungen dieser Technologie zu diskutieren. In seiner Begrüßung wies Prof. Dr. Eckard Minx, Vorstandsvorsitzender der Daimler und Benz Stiftung, auf den Klärungsbedarf hin, der mit der Verwendung des Begriffs KI notwendig sei: Die Vorstellungen und Definitionen von KI, was sie ist und kann, gehen weit auseinander. 

Matthias Spielkamp

Matthias Spielkamp
 

Prof. Dr. Eckard Minx im Gespräch
 

Dr. Katharina Simbeck

Dr. Katharina Simbeck
 

Dr. Manuela Lenzen
 

Peter Froeschle

Peter Froeschle
 

Dr. Julia Borggräfe

Dr. Julia Borggräfe
 

20. Innovationsforum

Wissenschaftliche Leitung: Matthias Spielkamp

04. November 2019
Haus Huth, Berlin

Künstliche Intelligenz (KI) ist ein Thema mit hoher Priorität für viele Entscheidungsträger nicht nur in Unternehmen, sondern auch im politischen Bereich. Vor diesem Hintergrund trafen sich rund 30 Manager, Wissenschaftler und Vertreter unterschiedlicher gemeinnütziger Organisationen zur Jubiläumsveranstaltung des Innovationsforums – es war die 20. Veranstaltung in dieser Reihe – um die Auswirkungen dieser Technologie zu diskutieren. In seiner Begrüßung wies Prof. Dr. Eckard Minx, Vorstandsvorsitzender der Daimler und Benz Stiftung, auf den Klärungsbedarf hin, der mit der Verwendung des Begriffs KI notwendig sei: Die Vorstellungen und Definitionen von KI, was sie ist und kann, gehen weit auseinander. Zwischen Heilsversprechen und Untergangsszenario scheint alles denkbar. Die mangelnde Genauigkeit in der Definition und die weit divergierenden Erwartungshaltungen bei einer gleichzeitigen Allgegenwart von Systemen die auf Algorithmen beruhen, sorge für einen Hype, der den Blick auf die wichtigen Fragen verstelle. „Das Versprechen, anhand gigantischer Datenmengen und großer Rechenleistungen, jegliche Unsicherheit und Unvorhergesehenes ausschalten zu können, führt tatsächlich dazu, immer mehr Entscheidungen auf Algorithmen zu übertragen. Damit werden schiere Daten zum Faktum“, so Minx. Problematisch daran sei, dass diese Entscheidungen immer auf statistischen Korrelationen beruhen, deren Basis in der Vergangenheit liege.

Matthias Spielkamp, Geschäftsführer von Algorithm Watch und wissenschaftlicher Leiter des Innovationsforum, sorgte in seinem Vortrag „Künstliche Intelligenz – Worüber sprechen wir, worüber sollten wir sprechen?“ zunächst einmal für eine Einordnung zentraler Begriffe in der Debatte um KI. Er vertrat die Auffassung, dass in der Diskussion um gesellschaftliche Auswirkungen von Verfahren, die auf der statistischen Auswertung großer Datenmengen beruhen, der Begriff künstliche Intelligenz den Blick für konkrete Herausforderungen verstelle. AlgorithmWatch verwende daher alternativ den Begriff algorithmische Entscheidungsfindung (algorithmic decision-making, ADM). Zum einen versuche die Organisation damit dem Eindruck entgegenzuwirken, derartige Verfahren seien mit menschlicher Intelligenz vergleichbar. Zum anderen müsse klar werden, dass hier Entscheidungen natürlicher oder juristischer Personen modelliert und in Software kodiert werden und nicht eine Maschine selbst „entscheide“ – auch wenn letztendlich Datenverarbeitungssysteme Aktionen ohne – oder zumindest ohne entscheidende – menschliche Eingriffe ausführten. Aber die grundlegende Entscheidung findet zu dem Zeitpunkt statt, an dem festgelegt wird, dass ein Automatisierungssystem zu einem bestimmten Ziel eingesetzt werde und wie das Modell dafür gestaltet ist. All das entscheiden Menschen, die sich dann letztendlich auch dafür verantworten müssen. Weitgehend unbekannt sei, dass bereits in vielen europäischen Ländern Systeme eingesetzt werden, um Menschen zu klassifizieren und auf der Basis dieser Einordnung weitreichende Entscheidungen zu treffen: Darüber, ob Therapien genehmigt, Sozialleistungen gewährt oder Familien daraufhin kontrolliert würden, ob Kinder vernachlässigt werden. Zwar sei nicht prinzipiell abzulehnen, dass versucht werde, auf der Grundlage von Datenanalysen Evidenz für weiteres Handeln zu schaffen. Aber es sei entscheidend, dass angemessene Strukturen existieren, um zu überprüfen, ob die Zwecke legitim seien, zu denen diese Verfahren verwendet werden, und die Verfahren selbst angemessene Qualitätsanforderungen erfüllen. Aufsichtsbehörden seien dazu bisher meist nicht in der Lage, weil die Kapazitäten, aber auch die Expertise fehle. AlgorithmWatch fordert daher, in einem ersten Schritt die öffentliche Verwaltung zu verpflichten, in einem Register zu veröffentlichen, welche ADM-Systeme zu welchem Zweck eingesetzt würden, wer sie entwickelt hat und welcher Logik das Verfahren folgt.

In ihrem Vortrag: „Human Resources Analytics – fair und diskriminierungsfrei?“ stellte Dr. Katharina Simbeck, Professorin am Studiengang Wirtschaftsinformatik und Dekanin des Fachbereichs Informatik, Kommunikation und Wirtschaft an der Hochschule für Technik und Wirtschaft Berlin klar, dass auch Unternehmen im Personalwesen schon heute verstärkt auf automatisierte Verfahren setzen, zum Beispiel bei der Vorauswahl von Bewerbungen. Dabei nutzen sie verschiedene Elemente der Textanalyse. Die dahinterliegenden Routinen seien jedoch nicht nachvollziehbar und werden zu einer regelrechten Black Box, die unerwünscht diskriminierend wirken könne. „Maschinelles Lernen beruht auf großen Datenmengen, deren Erhebung in der Vergangenheit liegt, so können Vorurteile reproduziert und zum Teil sogar verstärkt werden,“ so Simbeck. Anhand von den vier Anbietern Amazon, Google, Microsoft und IBM hat ein Forscherteam der HTW die automatisierten Auswertungen von Bewerbungsschreiben analysiert. Die scheinbar objektiven Ergebnisse zur Eignung der Bewerber fielen zum Teil sehr unterschiedlich aus. Je nach Anbieter und dem gewählten Namen, Geschlecht oder Adelstitel wurden die exakt gleichen Anschreiben zum Teil sehr unterschiedlich bewertet. Damit sei deutlich, dass die Annahme, datenbasierte Auswertungen seien fair und objektiv, nicht stimme. Schwierig für die Anwender sei vor allem, dass Sie keinen Einblick in die Kriterien und Algorithmen der Anbieter haben. Die diese Systeme aber relativ neu sind, sei die Wahrscheinlichkeit groß, dass Anpassungen vorgenommen werden und individualisierte Lösungen für Unternehmen zunehmen werden. Klar sei aber auch, dass der Einfluss dieser Systeme durch die wachsende Verbreitung größer werde.

Dr. Julia Borggräfe, Leiterin der Abteilung „Digitalisierung und Arbeitsmarkt“ im Bundesministerium für Arbeit und Soziales (BMAS), stellte zunächst ihre Abteilung als Denkfabrik vor, die es dem Arbeitsministerium ermöglichen soll, die digitale Transformation und ihre Auswirkung auf die Arbeitswelt und Gesellschaft zu gestalten, statt nur auf Entwicklungen zu reagieren. Mit neuen Formaten vom Lab über Fellowship-Programme bis hin zu Co-Creation-Prozessen will die Denkfabrik durch den Austausch mit möglichst vielen Akteuren Strategien zum Umgang mit den digitalen Herausforderungen entwickeln, denn „wir haben faktisch keine Regeln für Diskriminierung in technischen Systemen, was aber dringend notwendig ist, da die Akzeptanz von KI-Systemen auch eine Frage des Vertrauens ist“, so Borggräfe. Um diese Regeln unter Mitnahme der Menschen zu gestalten, sei es notwendig, eigene Expertise aufzubauen – auch dies eine zentrale Aufgabe, die die Denkfabrik leisten soll. Dies sei umso wichtiger, weil solche Gestaltung auch in Europa dringend benötigt werde. Notwendig dafür sei es auch, groß angelegte Fortbildungsprogramme im Bereich der KI sowohl auf dem Gebiet der technischen wie auch der sozialen Kompetenzen zu fördern. In diesem Sinne verstehe sich die Denkfabrik als referatsübergreifende Einheit, die ihr Know-how anderen Ministerien zur Verfügung stelle.

Peter Froeschle, Geschäftsführer von ARENA 2036, referierte über „KI in der Produktion“. Dazu stellte er zunächst den von der Daimler AG, Robert Bosch GmbH und der Universität Stuttgart mitgegründeten und vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungscampus vor. Dieser sei eine Innovationsplattform, auf der sich über 30 Partner aus Industrie und Wissenschaft im vorwettbewerblichen Umfeld austauschen und vor allem ausprobieren können. In der 10.000 m2 großen Forschungsfabrik kann das Risiko von Entwicklungen verteilt und es können Themen beforscht werden, die zwischen Grundlagen- und anwendungsbezogener Forschung liegen. So würden Mehrwerte für alle Beteiligten generiert. Um weitere Potentiale zu erschließen, wurde zusätzlich der Start-up-Accelerator STARTUP AUTOBAHN unter dem Dach des Forschungscampus gegründet, so dass auch die Gründerszene gefördert werden könnte. Dies ermögliche, dass diese Innovationspotenziale nahtlos Anschluss an die Hochtechnologieforschung finden. Für Einsatz von künstlicher Intelligenz biete sich hier vor allem die Fluide Produktion aufgrund ihrer hohen Komplexität an. Allerdings stünden zwei grundsätzliche Überlegungen vor einem solchen Einsatz: Lässt sich das Problem nicht einfacher mit einer Modellbildung lösen und ist der optimierenden KI-Ansatz überhaupt transparent, um zu garantieren, dass der Mensch fortlaufend optimierend eingreifen kann? Klar sei allerdings auch, dass künstliche Intelligenz zunehmend punktuell unterstützend agieren werde.

Zum Abschluss des Innovationforums referierte die Wissenschaftsjournalistin Dr. Manuela Lenzen über „Verwirrungsmaschinen“. In ihrem Vortrag zeigte sie, dass der Einsatz von hilfreichen und gar intelligenten Maschinen ein uralter Menschheitstraum sei. „Wenn solche Maschinen dann noch mit den Augen rollen und mit uns sprechen, sind wir sehr leicht versucht, diesen menschliche Eigenschaften zuzuschreiben,“ beschreibt die Philosophin die Verwirrung, die durch diese Form von Anthropomorphismus im Umgang mit Robotern und KI-Systemen entstehen könne. Doch auch wenn KI-Systeme in vielen Bereichen bereits effektiver agierten als Menschen, sei der Weg zu wirklich autonomen Handeln und gar menschlichen Können noch weit, denn die Anwendung solcher Computersysteme sei auf sehr spezielle und eng umrissene Aufgaben begrenzt. „Während viele allerdings auf den großen Durchbruch warten, sickert die Künstliche Intelligenz langsam, aber sicher in unseren Alltag ein,“ so Lenzen. Dies löse bei vielen Menschen Ängste vor einer Herrschaft der Maschinen aus. Nicht nur deshalb sei es notwendig, gesellschaftliche Rahmenbedingungen zu schaffen, die festlegen, welche Funktionen Maschinen beigebracht werden. Im Augenblick fehle es an Transparenz, wie Computer und Algorithmen zu ihren Ergebnissen kommen, was genau diese Unsicherheit befeuere. Doch dies sei durchaus konstruktiv zu nutzen, denn „Verwirrung hat auch ihre guten Seiten, weil so die Entscheidungsprozesse von Menschen und Maschinen intensiv thematisiert werde. So werden Unterschiede, vor allem aber Unklarheiten bei Entscheidungsprozessen sichtbar. In diesem Sinne können die Verwirrungsmaschinen zu Präzisierungsmaschinen werden“, schloss Lenzen Ihren Vortrag. 

[ zurück ]