image/svg+xml

Leibniz University Hannover
Verantwortungsvolle
Künstliche Intelligenz in der Digitalen Gesellschaft
Promotionsprogramm

Logo, LUH Logo, GA Logo, L3S Logo, HSH Logo, TIB

Im Rahmen der Digitalisierung wirken Technologien der Künstlichen Intelligenz (KI) als treibende Kraft. Aufgrund ihrer enormen gesellschaftlichen Relevanz ist ein verantwortungsvoller Umgang mit KI von besonderer Bedeutung. Die Erforschung und Anwendung verantwortungsvoller KI ist eine sehr junge Disziplin und erfordert die Bündelung von Forschungsaktivitäten aus unterschiedlichsten Disziplinen, um KI Systeme zuverlässig, transparent, sicher und rechtlich akzeptabel zu gestalten und anzuwenden.

Das Promotionsprogramm adressiert die interdisziplinären Forschungsherausforderungen im Rahmen von 14 transdisziplinären Promotionen. Organisiert in vier Clustern, erforschen Stipendiaten/innen die drängendsten Forschungsfragen in den Bereichen Qualität, Haftung, Interpretierbarkeit, verantwortungsvollem Umgang mit Informationen und der Anwendung von KI. Das innovative, zielorientierte und international ausgerichtete Betreuungskonzept und erfahrene PI-Team unterstützt die Stipendiaten_innen bei exzellenter Forschung.

Inhaltsverzeichnis

Projekte

Projekt-Übersicht

P1
Betriebssicherheit von intelligenten Komponenten
P2
Haftung für intelligente Komponenten
P3
Diskriminierung und Bias durch Algorithmen und Daten
P4
Diskriminierung bei der Bewerber_innenauswahl
P5
Verfassungsrechtliches Gebot der Nachvollziehbarkeit des Prozesses und Erklärbarkeit der Entscheidungen künstlich intelligenter Systeme
P6
Plausibilisierung und Rechtfertigung algorithmischer Entscheidungen in künstlich intelligenten Systemen
P7
Unterstützung der Interpretierbarkeit von Entscheidungen verteilter künstlich intelligenter Systeme
P8
Repräsentation von Wissen und Bias in einem Wissensgraph
P9
Bias in gelernten semantischen Wortrepräsentationen
P10
Funktion und Verzerrung durch Bilder in multimodalen Nachrichten
P11
Bias & Opinion (Change) in Social Media Streams
P12
Entwicklerzentrierte IT-Sicherheit bei KI Anwendungen
P13
Sozioinformatische Aspekte intelligenter Crowdsourcing-Tools
P14
Ethnografie der Responsibilisierung von KI

Projekt-Details

P1 Betriebssicherheit von intelligenten Komponenten

Klassische Qualitätssicherungsverfahren basieren auf einer vollständigen funktionalen Spezifikation des gewünschten (und nicht gewünschten) Systemverhaltens. Diese Verfahren könnten jedoch nicht für Komponenten verwendet werden, deren Funktionalität durch ein KI-Verfahren aus dem Bereich des maschinellen Lernens gewonnen wird. Wenn wir nämlich eine vollständige funktionale Spezifikation des Verhaltens besäßen, würden wir diese Komponenten durch ein konventionelles Verfahren realisieren und mit etablierten Verfahren qualitätssichern. Für KI-Komponenten brauchen wir daher Qualitätssicherungsverfahren, welche nicht die vollständige funktionale Korrektheit prüfen, sondern welche sich mit der grundlegenden Korrektheit im Sinne von Betriebssicherheit (Safety) beschäftigen.

In diesem Promotionsprojekt wird daher der Begriff einer minimalen Safety-Spezifikation für KI-Komponenten erarbeitet, welche eine minimale Umgebung der sicheren Funktionsweise einer KI-Komponente bestimmt (Safety-Envelope). Darauf aufbauend werden Testverfahren entwickelt, welche eine ausreichende Menge von Testfällen für KI-Komponenten erzeugen, um die korrekte Funktionsweise innerhalb des Safety Envelopes bis auf ein vertretbares Restrisiko garantieren. Als Anwendungsbeispiel wird hier das automatische Fahren verwendet, wobei der Safety Envelop sich z.B. auf eine Freiheit von Kollisionen beziehen kann.

Principal Investigators Prof. Dr. Ina Schaefer und Prof. Dr. Fabian Schmieder

P2 Haftung für intelligente Komponenten

Wenn eine Entscheidung einer KI zu einem schädigenden Ereignis (z.B. einem Personen- oder Sachschaden) führt, z.B. ein autonom fahrendes Fahrzeug einen Fußgänger verletzt oder gar tötet, stellt sich unmittelbar die Frage, wer in welchem Umfang zum Ausgleich des entstandenen Schadens verpflichtet sein könnte. Die Antwort ist vor allem für die Hersteller autonom fahrender Fahrzeuge zur Bestimmung des Haftungsrisikos bedeutsam.

Das Haftungsrecht für KI-Verfahren ist daher auch Gegenstand kontroverser Diskussionen innerhalb der Rechtswissenschaft, welche insoweit Ausgangspunkt dieses Promotionsthemas sein wird. Neben der Einordnung der KI in das bestehende Haftungsregime wird es in der Arbeit v.a. darum gehen, einen Vorschlag für ein Haftungskonzept für KIs zu entwickeln, welches die unterschiedlichen Adressaten der Haftungsansprüche (z.B. Hersteller, Betreiber, Bediener) und die Art der jeweiligen Haftung (Verschuldenshaftung, Gefährdungshaftung), die Beweislast, den Haftungsmaßstab und etwaige Exkulpationsmöglichkeiten in einen systematischen Zusammenhang bringt. Die Arbeit bietet einen interdisziplinären Anknüpfungspunkt zur “Betriebssicherheit von intelligenten Komponenten” und den dort zu entwickelnden Testverfahren, welche sich - unter noch zu bestimmenden rechtlichen Voraussetzungen - haftungsrechtlich z.B. als Exkulpationsmöglichkeit des Herstellers berücksichtigen ließen.

Principal Investigators Prof. Dr. Fabian Schmieder und Prof. Dr. Ina Schaefer

P3 Diskriminierung und Bias durch Algorithmen und Daten

Mit der zunehmenden Nutzung von KI-Algorithmen zur automatisierten Entscheidungsunterstützung wird auch die Frage “Wie objektiv sind Vorschläge / Entscheidungen der genutzten KI” immer wichtiger. Ausgangspunkt ist dabei die Frage der “Repräsentativität von Daten”, einem klassischen Thema in der Statistik, deren Ansätze (z.B. randomisierte / repräsentative Datenstichproben) sich allerdings nur teilweise auf die Datenauswahl für KI-Algorithmen übertragen lassen. Ziel ist es, durch hinreichend viele und repräsentative Daten alle relevanten Klassen / Fälle / Situationen abzudecken, und die Unterscheidung zwischen den unterschiedlichen Klassen korrekt abzubilden.

Ersteres ist komplex, weil niemals “alle” Daten zur Verfügung stehen werden. Trotzdem können und sollen aber natürlich unter bestimmten Annahmen Aussagen über die Repräsentativität von Daten getroffen werden, die zur Modellbildung herangezogen werden. Noch komplexer ist der zweite Aspekt, weil hier die Interaktionen zwischen Daten und Modellannahmen relevant werden. Relevant in diesem Zusammenhang sind u.a. Ansätze der “Adversarial AI”, weil die gelernten Modelle von Randbedingungen der KI-Algorithmen, insbesondere Form und Komplexität der genutzten Funktionen abhängen, und dadurch die Klassengrenzen der gelernten Modelle die Realität oft nicht korrekt widerspiegeln.

Neben den theoretischen Arbeiten sollen im Rahmen dieser Arbeit schwerpunktmäßig zwei Use Cases mit Verbindungen zu den anderen Clustern (automatisches Fahren und Bewerberauswahl) betrachtet werden.

Principal Investigators Prof. Dr. Wolfgang Nejdl und Prof. Dr. Felipe Temming

P4 Diskriminierung bei der Bewerber_innenauswahl

Der verantwortungsvolle Umgang mit KI in der digitalen Gesellschaft verändert auch Arbeitsprozesse in Unternehmen. In arbeitsrechtlicher Hinsicht werden sich damit Fragen der Erklärbarkeit, Gerechtigkeit, Transparenz, Datensicherheit und Haftung mit Blick auf KI bei der Auswahl geeigneter Bewerber_innen stellen. Rechtstatsächlich ist die Tendenz zu beobachten, dass hier insbesondere große Unternehmen zunehmend auf KI setzen. Die vielfältigen persönlichkeitsausforschenden Tests sind wegen des automatisierten Analysepotenzials hochumstritten.

Zentral geht es um Fragen der maßgeblichen Entscheidung über die Bewerbenden (KI oder Mensch) sowie die damit verbundenen Haftungs- und Klagerisiken. Ebenso aufgeworfen ist die Frage der möglichen Offenlegung der Algorithmen. Eine systematische, auch rechtsvergleichende Aufbereitung dieser auch monographisch noch unausgeforschten Problematik ist juristisch herausfordernd. Interdisziplinäre Brücken lassen sich im Programm zur Informatik, Soziologie und zur Psychologie schlagen. Das Projekt bietet auch die Möglichkeit für rechtstatsächliche und empirische Studien unter Bindung, bspw. unter Einbindung von Unternehmen, die KI in Bewerbungsprozessen einsetzen, oder durch Rückkopplung mit öffentlichen Behörden, wie der Antidiskriminierungsstelle des Bundes.

Principal Investigators Prof. Dr. Felipe Temming und Prof. Dr. Wolfgang Nejdl

P5 Verfassungsrechtliches Gebot der Nachvollziehbarkeit des Prozesses und Erklärbarkeit der Entscheidungen künstlich intelligenter Systeme

Menschliche Entscheidungsprozesse sind nicht nachvollziehbar. Die Kenntnis der Motivation, die zu einer Entscheidung führt, bleibt dem Individuum vorbehalten, denn weder können (nach jetzigem Stand) die Funktionen des menschlichen Gehirns in dieser Weise ausgewertet werden, noch wäre dies mit der Menschenwürde vereinbar. Da sich eine KI nicht auf die Menschenwürde berufen kann, stellt sich die Frage, ob und wie dieser Grundsatz auch für den Entscheidungsprozess einer KI greifen könnte, bzw. umgekehrt, was rechtlich im Hinblick auf die Nachvollziehbarkeit von KI-Entscheidungsprozessen zu verlangen ist. Zudem gilt es zu untersuchen, ob das dem Datenschutzrecht zu entnehmende Recht auf Erklärbarkeit von KI-Entscheidungen de lege lata ausreichend berücksichtigt ist und wie und wo es, soweit Schutzlücken auszumachen sind, de lege ferenda verankert werden sollte.

Principal Investigators Prof. Dr. Tina Kruegel und Prof. Dr. Wolf-Tilo Balke

P6 Plausibilisierung und Rechtfertigung algorithmischer Entscheidungen in künstlich intelligenten Systemen

In den letzten 15 Jahren wurden zahlreiche Forschungsprojekte zur Semantifizierung des World Wide Webs (“Semantic Web”) durchgeführt. Während die eigentliche Vision dabei immer noch weitgehend unerreicht ist, haben diese Projekte aber zu einer sinnvollen und nützlichen Standardisierung zur Repräsentation und semantischen Auszeichnung von Inhalten und einer gewissen Verknüpfbarkeit geführt (W3C Standards: RDF, OWL. etc.).

In diesem Promotionsthema soll untersucht werden, wie heutige Techniken zur Informationsextraktion (NER, OpenIE, etc.) erfolgreich zusammen mit existierendem Wissen aus Linked Open Data (LOD) Quellen und Crowd-Sourcing-basierten Techniken zur Verifizierung/Plausibilisierung von neuem Wissen genutzt werden können. Ausgehend von jeder Entscheidung eines KI-Systems sollen in diesem Projekt Methoden entwickelt werden, um eine logisch schlüssige Rechtfertigungskette aus im Web existierenden oder individuell extrahierten Wissensfragmenten zu erstellen. Das heißt ein zweites intelligentes System kontrolliert das erste und bietet auf dem Output des Originalsystems eine nachvollziehbare Rechtfertigung an, oder zeigt fehlende Plausibilität und sogar Diskriminierung auf.

Principal Investigators Prof. Dr. Wolf-Tilo Balke und Prof. Dr. Astrid Nieße

P7 Unterstützung der Interpretierbarkeit von Entscheidungen verteilter künstlich intelligenter Systeme

Verteilte künstliche Intelligenz wird u.a. für kooperative Problemlösungen im Rahmen verteilter Heuristiken für die Optimierung eingesetzt. Während das Optimierungsergebnis solcher Verfahren oft nicht eindeutig ist, so wäre - bei entsprechender Absicherung der Konvergenzbedingungen - eine Nachvollziehbarkeit des Lösungsverlaufes prinzipiell möglich. Problematisch ist allerdings die Datenmenge sowie die Darstellung des Lösungsverlaufes.

Einen möglichen Ansatz zur Lösung stellt die Ermittlung von Entscheidungsankern dar, welche exemplarisch festgehalten werden. Auf Basis dieser idealerweise ebenfalls verteilt vorgehaltenen (z.B. mittels verteilter Transaktionssysteme) Entscheidungsanker können Visualisierungen entwickelt werden, die das Erklärungsbedürfnis beantworten und eine algorithmische Nachvollziehbarkeit erlauben. Dieses Promotionsthema widmet sich deshalb der Ableitung und Visualisierung von Entscheidungsankern für kooperative Algorithmen mit verteilter KI.

Principal Investigators Prof. Dr. Astrid Nieße und Prof. Dr. Tina Kruegel

P8 Repräsentation von Wissen und Bias in einem Wissensgraph

Ziel dieses Promotionsvorhabens ist es die untersuchten Konzepte (Standpunkte, Ansprüche, Fakten, Entitäten, Merkmale) als Teil eines reichen Wissensgraphen darzustellen, die eine qualitative Bewertung und einen Vergleich von Aussagen und ihrer individuellen Vertrauenswürdigkeit in einem bestimmten Kontext sowie ihrer zeitlichen Entwicklung im Zeitablauf ermöglichen. Neben der Darstellung der zeitlichen Entwicklung von Entitäten, Themen, Aussagen und ihren Beziehungen wird insbesondere die effiziente Darstellung von Kontroversität, Bias, Informationsqualität und repräsentativen Merkmalen adressiert, mit dem Ziel, eine effiziente, begründungsbasierte Abfrage und Überprüfung von Aussagen zu erleichtern. Für die Erfassung von kontextuellen Merkmalen wie Provenienz oder Ereignissen im Web werden wo immer möglich, etablierte Vokabulare wie PROV-DM, schema.org oder SIOC genutzt. Während die Analyse der Konnektivität und Verwandtschaft in stark vernetzten Wissensgraphen komplex und rechenintensiv ist, werden Konnektivitätsmetriken als explizite Beziehungen betrachtet. Um ein effizientes Abfragen und Abrufen zu ermöglichen, werden Ansätze zur Dimensionsreduktion und Merkmalsaggregation verwendet und entwickelt, die auf den in den Pilotstudien definierten Abfragen basieren. Letzteres bildet die Grundlage für die Bewertung der gewonnenen Wissensgraphen im Hinblick auf ihre Fähigkeit, die formulierten Fragen und Informationsbedürfnisse effizient zu beantworten.

Principal Investigators Prof. Dr. Sören Auer und Prof. Dr. Ralph Ewerth

P9 Bias in gelernten semantischen Wortrepräsentationen

Ziel des Promotionsvorhabens ist es Methoden für die Erstellung und Verwendung von Word Embeddings (gelernte semantische Darstellungen von Wörtern) zu entwickeln, die mit einem Bias im Trainingskorpus umgehen können. Erstens wird untersucht, wie ein Bias in Word Embeddings definiert und erkannt werden kann. Zweitens werden Verfahren entwickelt, um Bias, die es gibt, sichtbar zu machen, zum Beispiel indem die Dimensionen der Wortdarstellungen möglichst explizit gemacht werden und die latenten Repräsentation in explizite überführt werden. Hiermit können Gründe für die Klassifikation eines Wortes oder für eine gefundenen Ähnlichkeit zwischen Wörtern transparent gemacht werden. Drittens soll untersucht werden, in wie fern die Ansätze von Bolukbasi et al. (2016) und Zhao et al. (2018) zur Entfernung von einem Gender-bias verallgemeinert werden können und der Effekt eines beliebigen Bias (Alter, Herkunft, Hautfarbe aber auch Textsorte oder Stil) minimiert werden kann. Hiervon kann eine Anwendung, wie zum Beispiel die Erkennung von beleidigender Sprache profitieren mit dem Ziel die Gefahr, dass beleidigende Sprache vom Algorithmus mit unerwünschten Faktoren assoziiert wird, zu verringern.

Principal Investigators Prof. Dr. Christian Wartena und Prof. Dr. Eirini Ntoutsi

P10 Funktion und Verzerrung durch Bilder in multimodalen Nachrichten

In der Analyse multimodal repräsentierter Nachrichten sind mehrere Aspekte zu betrachten: die Funktion des Bildes für einen Text (Illustration, Dekoration, Darstellung eines konkreten Nachrichtenaspekts), der Bildinhalt und dessen Textbezug (d.h., wer oder was sind bei welchem Ereignis zu sehen?), beabsichtigte emotionale Wirkung, sowie der Entstehungsprozess des Bildes, d.h., ist es ein Original, eine Bearbeitung oder Komposition. Der Stand der Forschung zeigt, dass es bislang wenige Arbeiten zur (semi-)automatischen multimodalen Erkennung von verzerrten Nachrichten oder Fake News gibt.

In dem Promotionsprojekt werden systematisch multimodale Aspekte modelliert und untersucht, wie sich Verzerrungen und Falschmeldungen in multimodalen Nachrichten formal und inhaltlich manifestieren können. Ein Fokus ist, automatisch formal-inhaltliche Bezüge zwischen Bildinhalt und Text zu erkennen und hierfür KI-Verfahren zu entwickeln. Es erscheint vielversprechend, die Potenziale von Generative Adversarial Networks zu eruieren.

Letztlich soll eine interaktive Analytics-Software entstehen, die Menschen bei der Bewertung der Plausibilität von multimodalen Nachrichten unterstützt. Systemhinweise können sich etwa darauf beziehen, wo ein Foto wahrscheinlich aufgenommen wurde, oder ob es Hinweise auf eine Bildkomposition, bzw. -manipulation gibt.

Principal Investigators Prof. Dr. Ralph Ewerth und Prof. Dr. Christian Wartena

P11 Bias & Opinion (Change) in Social Media Streams

Ziel dieses Promotionsvorhabens ist es Verzerrung in sozialen Netzwerken wie Twitter und seine Wirkung auf Meinungsbildung und Meinungswandel zu untersuchen. Diese Fragestellung ist eine zentrale Herausforderung für viele Anwendungen, von online Umfragen bis hin zur Platzierung von Werbung. UGC (User Generated Content) ist sehr subjektiv und spiegelt häufig unterschiedlichste Verzerrungen und Vorurteile wider. Zudem werden in sozialen Netzwerken den Nutzern Inhalte von KI-Algorithmen basierend auf Nutzerinformationen wie etwa ihrem Standort, Klickverhalten und Suchhistorie vorgeschlagen oder vorenthalten. Eine Isolierung in kulturellen oder ideologischen Blasen (Filter-bubble) ist die Folge. Dienstanbieter haben prinzipiell die Möglichkeit bestimmte Meinungen zu bevorzugen oder zu unterdrücken, z.B. in Politik, Wirtschaft oder zu Migrationsthemen. Auch die Erforschung von UGC ist von Bias betroffen: Es steht nur ca 1% aller Tweets auf Twitter zur Erforschung von UGC auf Twitter zur Verfügung. Studien zeigen, dass es auch hier zu Verzerrungen kommt.

Die Identifikation von Bias in Meinungsbildung und Meinungswandel ist hoch komplex. Von daher werden in diesem Promotionsvorhabens die Auswirkungenen von Verzerrung auf Meinungsbildung und Meinungswandel erforscht. Der Fokus wird vor allem darauf liegen, wie Meinungen gebildet werden und wie sich die Meinungen der Benutzer im Laufe der Zeit ändern.

Principal Investigators Prof. Dr. Eirini Ntoutsi und Prof. Dr. Christian Wartena

P12 Entwicklerzentrierte IT-Sicherheit bei KI Anwendungen

Im Rahmen der verantwortungsvollen Anwendung von KI spielen Sicherheitsaspekte eine zentrale Rolle. Angriffe wie etwa Adversarial Examples, Evasion oder Mimikry-Angriffe, Membership oder Property Inference, Model Inversion oder Stealing, Poisoning oder Backdoors können zu bösartig und bewusst herbeigeführten falschen Klassifikationen führen, den Datenschutz vertraulicher oder personenbezogener Daten aus einem gelernten Modell gefährden oder Trainingsdaten oder Modelle manipulieren bevor sie zum Einsatz kommen. Bei der Entwicklung von KI-Systemen müssen Softwareentwickler auf die diese Angriffe eingehen. Bekannte Sicherheitsprobleme in KI-Systemen zeigen, dass Softwareentwickler an dieser Stelle häufig überfordert sind.

Im Rahmen dieser Promotion werden wir daher die Ursachen für aktuelle Probleme erforschen und anschließend neue Mechanismen und unterstützende Werkzeuge und APIs für die KI-Entwicklung erforschen, die einen Fokus auf IT-Sicherheit und Benutzerfreundlichkeit für Softwareentwickler legen. Eine solche entwickler_innenzentrierte Herangehensweise an die Sicherheit von KI wird zukünftig einen wesentlich verantwortungsvolleren Einsatz von KI erlauben.

Principal Investigators Prof. Dr. Sascha Fahl und Prof. Dr. Stefanie Büchner

P13 Sozioinformatische Aspekte intelligenter Crowdsourcing-Tools

Im Umfeld der Wikimedia Foundation sind außer Wikipedia vielfältige andere Projekte zu verschiedenen Themen entstanden. Dazu gehören Wikimedia Commons (Bilder, Video und Audio) und Wikidata (Fakten). Während der letzten Jahre sind in diesem Kontext unzählige Vorschlagstools entstanden, die der aktiven Community das Erstellen, Editieren und Annotieren von Inhalten erleichtern sollen. Zunehmend halten auch KI-Verfahren in diesem Gebiet Einzug, die Nutzern Vorschläge zum Kuratieren, Bearbeiten und Annotieren machen und sie dabei in ihren Entscheidungen beeinflussen.

Wie verändert sich die Community, wenn KI bei verschiedenen Aufgaben assistiert oder die Führung übernimmt? Welche Dynamiken entstehen im Wechselspiel zwischen KI-unterstützten Vorschlägen, Bearbeitungs-Umgebungen mit Vorhandensein von Versionsgeschichte und generell Provenienzinformationen zu Metadaten? Wie wirken sich generell Vorschlagsfunktionen auf das Arbeiten von Freiwilligen mit oftmals sehr umfassend vorhandenem Spezialwissen in ihrem Gebiet, einschließlich möglicher Auswirkungen auf intrinsische Motivation und Anreiz-Systeme wie fein granularen Informationen zu Autorenschaften aus? Welche ethischen Erwägungen sind zu treffen, wenn Maschinen in Community-zentrierten Aktivitäten plötzlich zentrale Aufgaben übernehmen?

Principal Investigators Prof. Dr. Ina Blümel und Prof. Dr. Stefanie Büchner

P14 Ethnografie der Responsibilisierung von KI

Die Entwicklung verantwortungsvoller KI ist auch aus soziologischer Sicht herausfordernd: Dieser Cluster nutzt hier die einmalige Chance zur rekursiven Forschung. Er öffnet seine Teilprojekte für ein soziologisch-ethnografisch orientiertes Promotionsprojekt, das empirisch beobachtet, wie verantwortungsvolle KI von einem gesellschaftlichen Wert in konkrete Technologie in Forschung und Praxis eingeschrieben und übersetzt wird.

Leitend sind dabei drei Fragen: Welche gemeinsamen und unterschiedlichen Verständnisse von verantwortungsvoller KI bilden sich im Projektverlauf heraus und wie stabil und dynamisch sind diese? Von welchen unterschiedlichen gesellschaftlichen Logiken werden diese Verständnisse getrieben? Wie wird Verantwortung im Entwicklungsprozess zwischen Technologie und menschlichen Akteuren konstruiert und verteilt? Durch den exklusiven Feldzugang zu ausgewählten Projekten des Promotionsprogramms in verschiedenen Clustern eröffnen sich hier einzigartige Möglichkeiten, empirische Einsichten in die zukünftig zentralen Prozesse der Verantwortlichmachung von Technologien und Forschung zu gewinnen.

Principal Investigators Prof. Dr. Stefanie Büchner, Prof. Dr. Ina Blümel und Prof. Dr. Sascha Fahl

Beteiligte Einrichtungen

L3S
https://www.l3s.de/

Das L3S ist eine gemeinsame zentrale Einrichtung der Leibniz Universität Hannover und der Technischen Universität Braunschweig zum Ziel der interdisziplinären Forschung im Bereich Web Science und Digitale Transformation und nimmt national und international eine führende Rolle in diesen Bereichen ein. Es bündelt die notwendigen Kernkompetenzen aus den Bereichen Informatik, Recht und Soziologie, um intelligente, verlässliche und verantwortungsvolle Systeme zu erforschen. Durch Forschung, Entwicklung und Beratung gestaltet das L3S maßgeblich die digitale Transformation insbesondere in den Bereichen Mobilität, Gesundheit, Produktion und Bildung.

Prof. Dr. Sören Auer, Prof. Dr. Wolf-Tilo Balke, Prof. Dr. Stefanie Büchner, Prof. Dr. Ralph Ewerth, Prof. Dr. Sascha Fahl, Prof. Dr. Tina Kruegel, Prof. Dr. Wolfgang Nejdl, Prof. Dr. Astrid Nieße, Prof. Dr. Eirini Ntoutsi, Prof. Dr. Ina Schaefer und Prof. Dr. Felipe Temming

Hochschule Hannover
https://www.hs-hannover.de/

Die Hochschule Hannover ist eine Hochschule für angewandte Wissenschaft mit ca. 10.000 Studierenden an fünf Fakultäten. Eingebunden in das Promotionsprogramm sind Hochschullehrer der Fakultät für Medien, Information und Design aus der Abteilung Information und Kommunikation, welche zugleich auch im Forschungscluster Smart Data Analytics der Hochschule Hannover organisiert sind.

Prof. Dr. Ina Blümel, Prof. Dr. Fabian Schmieder und Prof. Dr. Christian Wartena

TIB
https://tib.eu/

Das Leibniz-Informationszentrum für Technik und Naturwissenschaften – Technische Informationsbibliothek (TIB) ist Mitglied der Leibniz-Gemeinschaft und versorgt als Deutsche Zentrale Fachbibliothek für Technik sowie Architektur, Chemie, Informatik, Mathematik und Physik Wissenschaft, Forschung und Wirtschaft mit Literatur und Information. Die TIB betreibt angewandte Forschung und Entwicklung, um neue, innovative Dienstleistungen zu generieren und bestehende zu optimieren. Darüber hinaus engagiert sich die TIB unter anderem für Open Access und einen unbeschränkten Zugang zu Informationen und bietet entsprechende Dienstleistungen und Weiterbildungen an.

Prof. Dr. Sören Auer, Prof. Dr. Ina Blümel und Prof. Dr. Ralph Ewerth

Sprecher und Stellvertretende Sprecherin/Sprecher

Prof. Dr. Sascha Fahl (fahl@l3s.de)
Sprecher
Prof. Dr. Tina Kruegel (kruegel@l3s.de)
Stellvertreterin
Prof. Dr. Christian Wartena (christian.wartena@hs-hannover.de)
Stellvertreter

Beteiligte Wissenschaftlerinnen und Wissenschaftler

Prof. Dr. Sören Auer (L3S, TIB)
Data Science, Digital Libraries
Prof. Dr. Wolf-Tilo Balke (L3S)
Datenbanken und Informationssysteme
Prof. Dr. Ina Blümel (TIB, Hochschule Hannover)
Open Science, Forschungsinfrastrukturen
Prof. Dr. Stefanie Büchner (L3S)
Datafizierung, Organisationssoziologie
Prof. Dr. Ralph Ewerth (L3S, TIB)
Visual Analytics
Prof. Dr. Sascha Fahl (L3S)
IT-Sicherheit, Human Centered Security
Prof. Dr. Tina Kruegel (L3S)
IT-Recht, Datenschutzrecht
Prof. Dr. Wolfgang Nejdl (L3S)
Wissensbasierte Systeme
Prof. Dr. Astrid Nieße (L3S)
Verteilte KI, Selbstorganisation
Prof. Dr. Eirini Ntoutsi (L3S)
Data mining, Machine Learning
Prof. Dr. Ina Schaefer (L3S)
Software Engineering
Prof. Dr. Fabian Schmieder (Hochschule Hannover)
IT-Recht, Datenschutzrecht, IT-Sicherheitsrecht, Urheberrecht
Prof. Dr. Felipe Temming (L3S)
Arbeits- und Sozialrecht, IT-Recht, Datenschutzrecht
Prof. Dr. Christian Wartena (Hochschule Hannover)
Sprachverarbeitung

Förderung

Gefördert durch:
Wappen, Niedersachsen