Detail

back to news

Interpretierende Künstliche Intelligenz stärkt Vertrauen in computergestützte Diagnosen

14.10.2020

VRVis legt Forschungsschwerpunkt auf nachvollziehbare und vertrauenswürdige KI zur Optimierung radiologischer Workflows

"Die neue Visualisierungsmethode, die KI-Entscheidungen von ihrem Blackbox-Charakter befreit und das – gerade in der Medizin so wichtige – Vertrauen in Machine-Learning-Algorithmen ermöglicht, zeigt deutlich, dass das VRVis ein Top-Level-Forschungszentrum im Bereich Künstliche Intelligenz – und da ganz besonders ein österreichischer Vorreiter in Explainable AI für die Medizin – ist", Gerd Hesina, CEO des VRVis

"Unsere Lösung ist ein erster Baustein zur Realisierung einer Künstlichen Intelligenz, die den Menschen ins Zentrum stellt. Wir unterstützen Expertinnen und Experten, ohne sie ersetzen zu wollen. Dafür stellen wir eine zweite – maschinelle – Meinung zur Verfügung, die gleichzeitig ein ‚selbstkritisches’, leicht interpretierbares, visuelles Feedback über ihre Sicherheit liefert. Die Maschine tritt so in einen Dialog mit dem Nutzer, der dann die endgültige Entscheidung trifft. VRVis trägt damit maßgeblich zu einer Umsetzung der KI-Strategie der Europäischen Union bei, in deren Zentrum das Bild einer Human-centered AI steht", Katja Bühler, KI-Expertin des VRVis

Die moderne Radiologie greift immer mehr auf digitale Werkzeuge zurück, um Abläufe in Krankenhäusern zu beschleunigen und Ärztinnen und Ärzte durch den Einsatz maschineller Methoden zur Aus- und Bewertung von Bildaufnahmen in ihrem medizinischen Alltag zu unterstützen. Ein großes Problem war dabei bislang allerdings die fehlende Nachvollziehbarkeit der Entscheidungsprozesse von KI-Systemen, was gerade in der Medizin einen Risikofaktor darstellt. Die zunehmend wichtiger werdende Forschung an Interpretierbarer Künstlicher Intelligenz, auch bekannt unter Interpretable AI und Explainable AI (XAI), beschäftigt sich damit, den Blick in die Entscheidungsfindung der Künstlichen-Intelligenz-Modelle zu gewähren und diese für den Menschen transparent zu machen. Das Wiener COMET-Kompetenzzentrum VRVis erforscht und entwickelt innovative Lösungen für ein besseres Verständnis von bildverarbeitenden KI-Systemen der Medizin. Die VRVis-Methode ist generell anwendbar auf alle aktuellen KI-Algorithmen zur Klassifikation medizinischer Bilder und macht KI-Entscheidungen nicht nur sicht- und nachvollziehbar, sondern auch präziser und effizienter.

Das VRVis hat in den letzten 20 Jahren nicht nur ein umfassendes Know-how in der Forschungsarbeit mit bildgebenden Verfahren und dem Einsatz von Künstlicher Intelligenz in der medizinischen Diagnostik gesammelt, sondern auch bereits mehrere KI-basierte Lösungen in diesem Bereich patentiert. In der neuen COMET-Förderperiode (2021-2024) legt das VRVis nun einen großen Schwerpunkt auf den ambitionierten Einsatz von Visual Computing als Werkzeug zur Umsetzung von humanzentrierter Künstlicher Intelligenz. „Die neue Visualisierungsmethode, die KI-Entscheidungen von ihrem Blackbox-Charakter befreit und das – gerade in der Medizin so wichtige – Vertrauen in Machine-Learning-Algorithmen ermöglicht, zeigt deutlich, dass das VRVis ein Top-Level-Forschungszentrum im Bereich Künstliche Intelligenz – und da ganz besonders ein österreichischer Vorreiter in Explainable AI für die Medizin – ist“, erklärt Gerd Hesina, Geschäftsführer des VRVis. Das Verfahren, welches in mehreren hochkarätigen Publikationen vorgestellt wird, ist zuverlässiger, schneller und vertrauensvoller als alle anderen Methoden auf dem Markt.

Interpretable AI als Schlüssel zum Einsatz von Künstlicher Intelligenz für viele Bereiche

Die neue Methode kombiniert KI-Klassifikationssysteme mit der Entscheidungsvisualisierung in hoher Geschwindigkeit und großer Präzision. Dies hilft nicht nur medizinischem Fachpersonal, die Entscheidungsfindung des KI-Modells nachzuvollziehen und so auf die Diagnoseergebnisse vertrauen zu können, sondern dient auch als wichtige Kontrolle, ob die künstliche Intelligenz die Bilder „richtig liest“, das heißt, ob diese richtig trainiert wurde. Diese Transparenz, auch betreffend Zuverlässigkeit des KI-Modells, ist für KI-gestützte Diagnostik lebenswichtig. Interpretierbare Künstliche Intelligenz ist aber auch in allen anderen Bereichen, die auf den Einsatz von KI bauen, von größter Bedeutung. "Unsere Lösung ist ein erster Baustein zur Realisierung einer Künstlichen Intelligenz, die den Menschen ins Zentrum stellt. Wir unterstützen Expertinnen und Experten, ohne sie ersetzen zu wollen. Dafür stellen wir eine zweite – maschinelle – Meinung zur Verfügung, die gleichzeitig ein ‚selbstkritisches’, leicht interpretierbares, visuelles Feedback über ihre Sicherheit liefert. Die Maschine tritt so in einen Dialog mit dem Nutzer, der dann die endgültige Entscheidung trifft. VRVis trägt damit maßgeblich zu einer Umsetzung der KI-Strategie der Europäischen Union bei, in deren Zentrum das Bild einer Human-centered AI steht“, so Katja Bühler, KI-Expertin und Leiterin der Biomedical Image Informatics Group des VRVis.

Über VRVis

VRVis ist Österreichs führende Forschungseinrichtung auf dem Gebiet des Visual Computing und betreibt mit seinen über 70 Mitarbeiterinnen und Mitarbeitern in Zusammenarbeit mit Industrieunternehmen und Universitäten innovative Forschungs- und Entwicklungsprojekte. Das VRVis ist ein Kompetenzzentrum, welches im Rahmen des COMET-Programms durch BMK, BMDW, Land Steiermark, Steirische Wirtschaftsförderung – SFG und Wirtschaftsagentur Wien – Ein Fonds der Stadt Wien gefördert wird. Das Programm COMET wird durch die FFG abgewickelt.

Rückfragen & Kontakt:

Mag. Daniela Drobna
Kommunikation
drobna@VRVis.at
+43(0)1 908 98 92 - 207
VRVis Zentrum für Virtual Reality und Visualisierung Forschungs-GmbH
Donau-City-Strasse 11, 1220 Wien, Austria
www.vrvis.at