Cebit 2018: Künstliche Intelligenz warnt vor Fotos, die mehr verraten als gewünscht

(PresseBox) ( Saarbrücken, )
Im Internet laden Menschen jede Minute Zehntausende von Bildern hoch, auf der Online-Plattform Facebook sind es sogar mehr als Hunderttausend. Oft geben die Nutzer dadurch mehr preis, als ihnen lieb ist. Informatiker des CISPA Helmholtz-Zentrums i.G und des Max-Planck-Instituts für Informatik in Saarbrücken haben daher Methoden für einen digitalen Assistenten entwickelt, der Anwender vor der Herausgabe zu brisanter Bilder warnt. Das Wissen dafür haben die Forscher ihrem „Visual Privacy Advisor“ durch Maschinelles Lernen und Neuronale Netze beigebracht. Besucher der Computermesse Cebit können seine neuesten Fähigkeiten ab dem 11. Juni in Hannover in Halle 27 am Stand F68 testen.

Jedes Smartphone ermöglicht seinem Besitzer festzulegen, ob der aktuelle Aufenthaltsort oder die eigene Kontaktliste weitergegeben werden darf. Auch Online-Plattformen wie Facebook verfügen über ähnliche Mechanismen, um die Privatsphäre der Nutzer zu schützen. Für hochgeladene Fotos ist dies jedoch bisher nicht der Fall. „Fotos sind eine unterschätzte Gefahr. Viele Menschen wissen nicht, wie viele Informationen in diesen stecken“, erklärt Mario Fritz, der seit Juni dieses Jahres am neuen CISPA Helmholtz-Institut i.G. auf dem Saarland Informatics Campus in Saarbrücken forscht. Deswegen hat Fritz zusammen mit Tribhuvanesh Orekondy und Bernt Schiele vom Max-Planck-Institut für Informatik Methoden entwickelt, die automatisch Bilder analysieren und bei Herausgabe das Risiko für die eigene Privatsphäre einschätzen. Die Wissenschaftler haben somit die Grundlage für eine visionäre Software geschaffen, deren Einsatzszenario Fritz wie folgt beschreibt: „Sie wollen mit Ihrem Handy ein Bild verschicken. Unsere App warnt Sie jedoch, dass dieses Bild brisant ist, zudem gegen die von Ihnen aufgestellten Regeln verstößt und daher nicht geteilt werden sollte.“

Um für Fotos ähnliche Privatsphäre-Schalter zu erhalten, wie sie bereits für Orts- und Kontaktdaten existieren, mussten die Forscher erst eine Klassifikation für die Bilder entwickeln. Laut dieser existieren 68 Merkmale, die auf Wunsch zu schützen sind. Tattoos, Fingerabdrücke gehören genauso dazu, wie Geschlecht und die eigene E-Mail-Adresse. Danach stellten die Saarbrücker Wissenschaftler eine Datensammlung von 22.000 Bilder zusammen. Jedem Bild davon fügten sie Schlagworte hinzu, die der Klassifikation entsprachen. Im Schnitt beinhaltete danach jedes Bild rund fünf Merkmale. 10.000 der so annotierten Bilder nutzten sie, um ihre neuronalen Netzwerke, so genannnte „Convolutional Neural Networks (CNN)“ aus dem Gebiet des „Deep Learnings“, zu trainieren. Parallel dazu führten sie Studien mit mehreren Hundert Personen durch, um herauszufinden, wie sehr diese sich durch bestimmte Merkmale auf den Bildern in ihrer Privatsphäre verletzt fühlen und wie leicht sie diese Merkmale auf den Bildern tatsächlich erkennen. Auch mit diesen Erkenntnissen füttern die Forscher ihre neuronalen Netzwerke. Durch das so entwickelte Rechenmodell können diese nicht nur die Merkmale finden, sondern auch einschätzen, wie unwohl sich die eine Person fühlen würde, wenn die Information publik wird. Mit diesem Wissen analysiert die Software nun 8000 weitere Bilder. Das Ergebnis: Auf Grundlage des Rechenmodells beurteilen die neuronalen Netzwerk die Gefahr für die Privatsphäre besser als die menschliche Testgruppe, denn sie erkennen mehr brisante Fotos und analysieren diese genauer. Nun arbeiten die Forscher daran, dass die kompromittierenden Bildbereiche automatisch geschwärzt werden.

Die Forschung wurde in Teilen finanziert durch den von der Deutschen Forschungsgemeinschaft geförderten Sonderforschungsbereich 1223 „Methoden und Instrumente zum Verständnis und zur Kontrolle von Datenschutz“.

Weitere Informationen:

Tribhuvanesh Orekondy, Bernt Schiele, Mario Fritz Towards a Visual Privacy Advisor: Understanding and Predicting Privacy Risks in Images IEEE International Conference on Computer Vision (ICCV), 2017, Online abrufbar unter https://arxiv.org/pdf/1703.10660.pdf.
Für die oben stehenden Pressemitteilungen, das angezeigte Event bzw. das Stellenangebot sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Herausgeber (siehe Firmeninfo bei Klick auf Bild/Meldungstitel oder Firmeninfo rechte Spalte) verantwortlich. Dieser ist in der Regel auch Urheber der Pressetexte sowie der angehängten Bild-, Ton- und Informationsmaterialien.
Die Nutzung von hier veröffentlichten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Bei Veröffentlichung senden Sie bitte ein Belegexemplar an service@pressebox.de.