We help you find the perfect fit.

Swiss Ai Research Overview Platform

28 Research Topics
Reset all filters
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Filter
Reset all filters
Select all Unselect all
Close Show projects Back
Show all filters
71 Application Fields
Reset all filters
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Filter
Reset all filters
Select all Unselect all
Close Show projects Back
Show all filters
34 Institutions
Reset all filters
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Select all Unselect all
Close
Filter
Reset all filters
Select all Unselect all
Close Show projects Back
Show all filters
Socially acceptable AI and fairness trade-offs in predictive analytics

Lay summary

Porträt/Projektbeschrieb: 

Wird künstliche Intelligenz (KI) eingesetzt, z.B. bei Personalentscheidungen in Unternehmen, kann dies zu sozialer Ungerechtigkeit führen. Ziel des interdisziplinären Projektes ist die Entwicklung einer Methodik, mit der faire KI-Anwendungen geschaffen werden können. Diese unterstützt den Diskurs von Stakeholdern, wie KI in konkreten Anwendungsfällen sozialverträglich ausgestaltet werden kann. Sie erlaubt es zudem, Software-Entwickler in ethischen Themen auszubilden.
 
Das Projekt verbindet philosophische, technische und sozialwissenschaftliche Fragestellungen: Was bedeutet Fairness? Wie wird Fairness wahrgenommen? Wie kann Fairness in KI implementiert werden? Das Projekt verbindet so den ethischen Diskurs über KI mit der technologischen Umsetzung von KI.

Hintergrund / Ausgangslage: 
Im Bereich der  künstliche Intelligenz (KI) greifen datenbasierte Entscheidungssysteme  zunehmend in die soziale Lebenswelt von Menschen ein. Dies wirft die Frage auf, wie diese Systeme kompatibel mit gesellschaftlichen Normen in Bezug auf Fairness und Gerechtigkeit gestaltet werden können. Die konkrete Ausgestaltung solcher Systeme erfordert eine reflektierte Verknüpfung von Ethik, Technologie und sozialen Entscheidungsprozessen. 

Ziele:
Im Zentrum der Methodik steht das “Fairness-Lab”. Dies ist eine IT- Umgebung, mit der die Fairness-Auswirkungen von KI-Anwendungen sichtbar gemacht und gestaltet werden können. Entwickler können so in einen Dialog mit Anwendern und Betroffenen treten, um gemeinsam eine sozialverträgliche Lösung zu entwerfen. Firmen können damit gesellschaftlich akzeptierte und ethisch verantwortbare Algorithmen schaffen. Die Methodik wird mit konkreten Anwendungsfällen aus dem Personalwesen getestet.

Bedeutung / möglicher Nutzen: 

Durch die konsequente Verknüpfung von ethischen Aspekten (Was bedeutet fair im aktuellen Kontext?), sozialwissenschaftlichen Aspekten (Was wird in welchem Kontext als fair empfunden?) und technologischen Aspekten (Wie kann ein definiertes Fairness-Konzept implementiert werden?) soll ein praxistaugliches Instrument zur Unterstützung eines Fairness-by-Design-Ansatzes entstehen. Damit leistet das Projekt einen konkreten Beitrag zur Förderung von fairer und sozial akzeptierter KI.

 



Abstract

Fairness and non-discrimination are basic requirements for socially acceptable implementations of AI, as these are basic values of our society. However, the relation between statistical fairness concepts, the fairness perception of human stakeholders, and principles discussed in philosophical ethics is not well understood. The objective of our project is to develop a methodology to facilitate the development of fairness-by-design approaches for AI-based decision-making systems. The core of this methodology is the “Fairness Lab”, an IT environment for understanding, explaining and visualizing the fairness implications of a ML-based decision system. It will help companies to build socially accepted and ethically justifiable AI applications, educate fairness to students and developers, and support informed political decisions on regulating AI-based decision making. Conceptually, we integrate statistical approaches from computer science and philosophical theories of justice and discrimination into interdisciplinary theories of predictive fairness. With empirical research, we study the fairness perception of different stakeholders for aligning the theoretical approach. The utility of the Fairness Lab as a tool for helping to create “fairer” applications will be assessed in the context of participatory design. With respect to application areas, we focus on employment and education. Our project makes a significant contribution to the understanding of fairness in the digital transformation and to promoting improved conditions for the deployment of fair and socially accepted AI.

Last updated:02.03.2022

  Prof.Christoph Heitz
Michele Loi
Ulrich Leicht-Deobald