Künstliche Intelligenz noch intelligenter
Auch dieses Jahr gab es bei Rostock’s Eleven, dem Workshop für elf Wissenschaftler und elf Journalisten, einen Teilnehmer des Fraunhofer IGD: Mohamad Albadawi. Der studierte Informatiker kam für seinen Master in Visual Computing aus Syrien in die Hansestadt und arbeitete parallel beim Fraunhofer IGD. Seit der erfolgreichen Verteidigung seiner Masterthesis widmet er sich dort in Vollzeit seinem Lieblingsthema, dem Deep Learning. In die Tiefen dieser Thematik führte er die Journalisten mit folgendem Vortrag ein:
Wie wir künstliche Intelligenz noch intelligenter machen…
Maschinelles Sehen leistet bereits heute herausragende Ergebnisse beim zweifelsfreien Erkennen (Detektion) und Einordnen (Klassifizierung) von Objekten. Die Leistungsfähigkeit neuronaler Netze stößt allerdings an ihre Grenzen, wenn zwei Objekte eine verblüffende Ähnlichkeit miteinander aufweisen. Mohamad Albadawi hat in seiner Masterarbeit visuelle Konzepte im Rahmen des Deep Learnings – der Optimierung künstlicher Intelligenz – erarbeitet, um ähnliche Objekte deutlich besser unterscheiden zu können: Handelt es sich um einen essbaren Pilz oder seinen täuschend ähnlichen giftigen „Bruder“? Ist das auf dem Unterwasserbild eine alte Seemine oder doch nur ein Stein von gleicher Form und Größe?
Mohamad Albadawi erläutert in seinem Vortrag die Vorteile und Möglichkeiten der Arbeit mit hierarchisch aufgebauten neuronalen Netzen. Dafür werden verschiedene Kategorien und Klassifizierungen manuell definiert und mehrere neuronale Netze trainiert, von denen jeweils eines für genau eine Unterklassifizierung zuständig ist. Der Vorteil: je weiter das Aufgabengebiet eines Netzes eingegrenzt ist, umso akkurater kann es dieses bearbeiten. Im Gegensatz zu herkömmlichen neuronalen Netzen mit diversen gleichrangigen Schichten kann eine hierarchische Struktur so auch minimale Unterschiede zweier Bilder erkennen. Ein weiterer Vorteil hierarchischer Strukturen: Kommt zu den bereits definierten möglichen Kategorien eine weitere hinzu, kann diese wie im Baukastenprinzip zu dem System ergänzt werden. Bei klassischen neuronalen Netzen muss das Anlernen auch für die bereits bekannten Kategorien komplett neu erfolgen. Das macht hierarchische Netze flexibler bei Veränderungen.