UX für die

Produktion 2036.

Intuitive Technologien entfesseln den Menschen

Ihr Ansprechparter

Dr.-Ing. Matthias Reichenbach

Daimler AG

UX für die Produktion 2036

UX für die Produktion

Wir vereinfachen die Welt der Produktionstechnologien. Unsere intelligente User Experience (UX) begeistert die Menschen in der Produktion. Dadurch werden unsere intuitiven und smarten Technologien den Hochlauf einer ganzen Produktionslinie in nur zwei Tagen ermöglichen.

Assistenz für die Produktion von morgen

Intuitive und leicht zu bedienbare Technologien werden in den nächsten Jahren die entscheidende Rolle in der Produktion der Zukunft spielen. Wir entwickeln und erproben Technologien um daraus Assistenten für die Prodkution von morgen zu machen. Unser Ziel ist es , das ProduktionsmitarbeiterInnen damit zukünftig selbst umgehen können, ohne das Schulungen o.ä. benötigt wird.

Was bedeutet UX für uns überhaupt?

Was bedeutet „User Experience (UX)“ überhaupt? User Experience geht über die bloße Betrachtung der technischen Funktionalität eines Produkts hinaus. Vielmehr steht UX für ein ganzheitliches Nutzungserlebnis vor, während und nach der Benutzung einer Technologie, bei dem auch die Emotionen, Bedürfnisse und Erwartungen des Nutzers wichtig sind. Der Nutzer soll nicht nur schnell und problemlos zum Ziel kommen, sondern auch positive Gefühle wie Spaß oder Freude bei der Benutzung erleben. Übergeordnetes Ziel ist also: Positives Erleben!

Die ersten Prototypen zeigen bereits spannendes Potential bzw. werden teilweise sogar schon in der Fabrik erprobt, sie laufen im Serieneinsatz.

Beispiele sind hier unter anderem:

Intuitive Inbetriebnahme von fahrerlosen Transportsystemen

Ein Konzept zur schnellen Inbetriebnahme von fahrerlosen Transportsystemen wurde mittels Web App entwickelt. Die Experten von Bär und Daimler haben dabei besonderes Augenmerk auf die intuitive Bedienbarkeit gelegt. Das Konzept beinhaltet die drei Schritte Karte aufnehmen, Wegpunkte speichern und Stationspunkte speichern. Die Inbetriebnahme sollte direkt am Fahrzeug in der realen Umgebung stattfinden können, und vergleichbar mit den Teach-Punkten bei einem Industrieroboter ohne die Eingabe von Koordinaten erfolgen. 

Gleichzeitig kann die Applikation Informationen des Fahrzeugs anzeigen und so den Bediener über den aktuellen Stand der Inbetriebnahme aufklären. So kann die Arbeit während der Inbetriebnahme unterbrochen und von einer anderen Person fortgesetzt werden, ohne dass eine förmliche Übergabe oder Dokumentation dazu durchgeführt werden muss. Für den Kartenaufnahmeprozess muss das Fahrzeug durch die spätere Produktionsumgebung gesteuert werden. Die geschieht durch die Steuerung mit einem üblichen Joy-Controller. Die interne Sensorik des Fahrzeugs, das heißt die hier verwendeten Sicherheitslaserscanner tasten die Umgebung ab und durch die Anwendungen eines Algorithmus zur simultanen Lokalisierung und Kartierung (SLAM) wird auf dem Fahrzeug eine 2D Pixelkarte der Umgebung angelegt. Das Konzept zur Inbetriebnahme wurde bereits in Teilen für einen Demonstrator implementiert. 

Ansprechpartner:
Daniel Schmidt (Bär Automation)

Interaktives Mapping direkt auf dem Shopfloor

Mapping leicht gemacht! Durch die RTLS basierte Mapping Lösung ist der Nutzer in der Lage, vor Ort, die relevanten Logistik- und Montagezonen in einer Produktion interaktiv, einfach und schnell selbst zu definieren. Ihr braucht nur noch eine mobile App und ein paar Tags für die Verkehrszonen. Fertig! Es entfällt das Definieren von positionsabhängigen Automatisierungen und Verkehrsregeln in einer AMR-Leitsteuerung.

Ansprechpartner:
Kai Przybysz-Herz (NAiSE GmbH)