Moderne Produktionsprozesse erfordern intelligente und flexible Technologien, um bei steigender Variantenvielfalt und sinkenden Losgrößen effizient produzieren zu können. Entsprechend wird die intelligente Prozesskontrolle zu einem wichtigen Wettbewerbsfaktor.
Schlüssel für die intelligente Steuerung bzw. Kontrolle von Prozessen sind flexible, präzise, schnelle und berührungslos arbeitende Messsysteme, die das zu prüfende Objekt oder sich ändernde (z.B. sicherheitsrelevante) Situationen möglichst vollständig bildtechnisch erfassen, die Bildinformation in numerisch verarbeitbare Daten transformieren, relevante Dimensionen oder Muster selektieren, analysieren und diese Informationen zur Steuerung von nachfolgenden Prozessschritten zur Verfügung stellen. Im Wesentlichen entspricht diese Aufgabe dem menschlichen Sehen, Erkennen und Reagieren.
Für 2-dimensionale Aufgaben ist dieses Problem technisch weitgehend gelöst. Reale Produktionsprozesse und Produkte sind jedoch praktisch ausschließlich 3-dimensional. Damit fehlt aktuellen Prozesssteuerungs- bzw. Überwachungssystemen, im Gegensatz zur menschlichen Wahrnehmung, die für viele Prozesse und Messaufgaben entscheidende dritte Dimension. Bisherige einfache Lösungen aus dem Konsumerbereich sind nicht industrietauglich. Heute verfügbare 3D-Industriesensoren sind immer noch zu störanfällig, haben eine zu geringe Auflösung der Tiefeninformation oder sind zu kostspielig, langsam und zu groß.
Gesamtziel des vorliegenden Projektes ist die Entwicklung eines mikrooptischen 3D-Sensorsystems für die Erfassung bzw. Messung von 3-dimensionalen Objekten, das gegenüber bestehenden Systemen einen multimodalen Ansatz verfolgt und deshalb eine wesentliche Verbesserung der Störsicherheit und Auflösung bei kompakten Abmessungen verspricht.
Dies wird erreicht durch die gezielte Nutzung der Beleuchtungsquelle zur mehrdimensionalen Kodierung von Tiefeninformation über scannende Fokuslage, Bildmuster und Farbe einerseits, sowie die Erfassung und Auswertung mittels auf die kodierte Beleuchtung adaptierte, multidimensionale Sensoreinheit andererseits.
Das neuartige Verfahren des fokusmodulierenden, multimodalen 3D-Sensorsystems soll durch die Verknüpfung und Integration mehrerer innovativer Kernkomponenten realisiert werden. Es sind dies das mikrooptisches Projektionssystem mit schnell schaltbarer Fokuslage, eine fokusvariable Empfangsoptik mit hoher Modulationsfrequenz, ein CMOS-Bildsensor mit sehr großem linearen Dynamikbereich und ein effizienter, FPGA-gestützter Algorithmus zur Datenfusion der multimodal kodierten Entfernungsinformation und Gewinnung von robusten Tiefeninformationen.
Der Mulit-3D-Sensor wird mechanisch robust aufgebaut und soweit integriert und miniaturisiert, dass er perspektivisch direkt in einen Roboterarm bzw. Robotergreifer oder einer mobilen Plattform integriert und in industriellen Anwendungen eingesetzt werden kann. Ein so ausgestatteter Roboter ist dann in der Lage, gezielt unterschiedliche Objekte aus einer unsortierten Kiste zu entnehmen. Er wird also über einen rudimentären Sehsinn verfügen, was einen bedeutenden Fortschritt in der Produktionstechnologie darstellen würde.
Das Multi-3D-Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Initiative „Digitale Optik“ von Februar 2017 bis Januar 2020 mit rund 2,87 Millionen Euro gefördert. Projektpartner sind die SICK AG, die Gesellschaft für Bild- und Signalverarbeitung (GBS) mbH, das Institut für Mikroelektronik Stuttgart (ims chips), das Fraunhofer-Institut für Angewandte Optik und Feinmechanik IOF Jena sowie die Friedrich-Schiller-Universität Jena.