Der DFKI CeBIT-Messeplaner - Exponate und Themen im Kompaktüberblick - Headlines und weiterführende Links (CeBIT 2011, 01.03.-05.03.2011).
DFKI-Stand Halle 9, A30
3D-Internet – Virtual Cities
Moderne Planungs- und Designwerkzeuge für Architekten, Landschafts- und Regionalplaner stützen sich immer stärker auf die dreidimensionale Darstellung von Objekten. Werden solche Entwürfe durch Modelle der Umgebung ergänzt, können Ideen, Konzepte, Strukturen und Veränderungen plastisch dargestellt werden. Allerdings bedürfen solche Visualisierungen heute noch der Unterstützung durch Experten und sind nur mit speziellen Systemen möglich. Die am DFKI-Forschungsbereich Agenten und Simulierte Realität in Zusammenarbeit mit der Universität des Saarlandes, dem Exzellenzcluster Multimodal Computing and Interaction und dem Intel Visual Computing Institute entwickelte XML3D-Technologie macht es jedem möglich, sich solche Modelle im Internet anzuschauen und die Vorteile einer dreidimensionalen Darstellung zu nutzen.
CeBIT 2011, Halle 9, A30
BAALL Remote – Dual Reality im Bremer Ambient Assisted Living Lab
Dual Reality-Umgebungsmodelle sind virtuelle Abbilder der tatsächlichen Welt und zugleich mit ihr vernetzt. Sie spiegeln reale Umgebungen nicht nur in ihrem Erscheinungsbild, sondern auch in ihrer Funktionalität wider und interagieren mit ihnen. Die Duale Realität erlaubt es ihrem Benutzer, den aktuellen Zustand der Wohnung oder des Büros mit Hilfe eines 3D Modells aus der Ferne zu beobachten. Gleichzeitig bietet das Modell die Möglichkeit, angeschlossene Geräte direkt durch einfaches Anklicken zu steuern.
https://www-cps.hb.dfki.de/research/baall
CeBIT 2011, Halle 9, A30
PROWIT - Vernetzung von Geschäftsprozessen und Kommunikation
Ziel des Forschungsprojekts PROWIT (Prozess-orientierter Web 2.0-basierter integrierter Telekommunikationsservice) ist es, Kommunikation automatisiert und abhängig vom gerade ausgeführten Geschäftsprozess kontextbewusst anzubieten. Dazu wird eine Process Collaboration Platform (PCP) entwickelt, welche die aktuelle Situation eines Angestellten erfasst und an ein integriertes Telekommunikationssystem weiterleitet. Mit Hilfe der PCP sollen sogenannte autonome Prozesswelten generiert werden, in denen nur noch diejenigen Anwender miteinander kommunizieren, die an einem gemeinsamen Problem arbeiten. Das Vorhaben wird vom Bundesministerium für Bildung und Forschung, BMBF, gefördert.
CeBIT 2011, Halle 9, A30
Social Media Miner – Web 2.0-Trenderkennung für Unternehmen
Der Social Media Miner (SMM) aggregiert Blog-Artikel zu ausgewählten Domänen von unterschiedlichen Suchmaschinen. Durch eine Kombination von Algorithmen aus der sozialen Netzwerkanalyse (SNA) und dem Text-Mining können Themengruppen innerhalb der Domäne erkannt werden und je Thema die einflussreichsten Blog-Artikel als Leseempfehlungen vorgeschlagen werden. Die Investitionsbank Berlin (IBB) fördert das Projekt im Rahmen des PROFIT-Programms, Industriepartner ist trommsdorff + drüner innovation + marketing consultants GmbH.
https://socialmediaminer.wordpress.com/
CeBIT 2011, Halle 9, A30
RADAR – Resource Annotation and Delivery for Mobile Augmented Reality Services
Im Projekt RADAR wird eine offene Infrastruktur zur Verwaltung und Aggregation beliebiger ortsbezogener, multimedialer Daten aus verschiedenen Quellen wie dem Social und Semantic Web oder digitalen Bibliotheken entwickelt. Neben einem eigenen Mobilclient zur personalisierten Inhaltsbereitstellung stellt RADAR auch Adapter für existierende Services wie Layar, Wikitude und ALOQA zur Verfügung. Mit "Augmented City Kaiserslautern" wird derzeit ein erster Anwendungsfall realisiert. RADAR wurde gefördert durch die Stiftung Rheinland-Pfalz für Innovation und basiert auf der am DFKI entwickelten Social Media Plattform ALOE.
CeBIT 2011, Halle 9, A30
SmartOffice – Wissensmanagement Plugins für Microsoft Office
SmartOffice Plugins (PID4Look und PID4Word) erlauben es, E-Mails oder Textdokumente semantischen Kategorien automatisiert zuzuweisen und sie mit Informationen aus einer Wissensbasis zu annotieren. PID4Look generiert Vorschläge zur Klassifikation von E-Mails in Outlook und bietet eine einfache Explorationsmöglichkeit in einer Wissensdatenbank: der Nutzer kann Kategorien visualisieren und weitere, damit verbundene Kategorien oder Informationsobjekte aus der Wissensbasis durchsuchen. Zusätzlich liefert PID4Look dem Nutzer Informationsobjekte wie bereits versendete oder eingegangene E-Mails, Dokumente, Termine, Tasks oder Kontaktdaten, die für die aktuelle Aufgabe relevant sind. PID4Look wird eingesetzt im Forschungsvorhaben Allianz Digitaler Warenfluss – AdiWa, gefördert vom Bundesministerium für Bildung und Forschung, BMBF.
CeBIT 2011, Halle 9, A30
iGreen - Öffentlich-Privates Wissensmanagement in der Landwirtschaft
iGreen bringt Dienste und Wissen auf den Punkt.
Das Ziel des Forschungsprojekts iGreen ist die Konzeption und Realisierung eines standortbezogenen Dienste- und Wissensnetzwerks zur Verknüpfung verteilter, öffentlicher und privater Informationsquellen im Pflanzenbau. Entwickelt werden mobile Entscheidungsassistenten mit modernsten Technologien, die dieses Netzwerk nutzen, um energieeffiziente, ökonomische, umweltangepasste und von vielen Gruppen gemeinsam organisierte Produktionsprozesse dezentral zu unterstützen und zu optimieren. Das Projekt iGreen wird vom Bundesministerium für Bildung und Forschung, BMBF, gefördert.
CeBIT 2011, Halle 9, A30
Cyber Physical Systems: Der sprechende Cocktail-Shaker - Interaktion mit Smarten Objekten
Ein Cocktail-Shaker, der lacht, sich langweilt oder wütend wird, hilft dem Hobby-Barkeeper, Cocktails fachgerecht zu mixen. Mit Hilfe von sogenannten Smart Objects erkennt diese Edutainmentinstallation die Aktionen des Benutzers rund um den Cocktail-Shaker und reagiert mit Erklärungen und Hilfestellungen. Alltägliche Objekte können mit miniaturisierter Elektronik digital veredelt und dadurch mit zusätzlichen Fähigkeiten versehen werden, welche über die ursprüngliche Anwendung hinaus gehen. In dieser interaktiven Installation kooperieren unterschiedliche Typen von drahtlosen Funksensoren, welche in dem Cocktail-Shaker und Flaschen integriert sind, um aus den Sensordaten Benutzerinteraktionen zu extrahieren. Das System kombiniert das Interaktionsparadigma der Tangible Interaction mit dem Ansatz der anthropomorphen Benutzerschnittstellen und nutzt damit die Fähigkeiten des Menschen sowohl zur physikalischen Interaktion von Objekten als auch der intuitiven Interpretation von affektivem Feedback.
CeBIT 2011, Halle 9, A30
CAPTURE - Schnelle 3D-Szenenerfassung für Stadtplanung und Notfall Management
In CAPTURE wird dabei ein neuartiger Ansatz für die 3D-Szenenerfassungen entwickelt: Anstatt große Mengen niedrig aufgelöster Bilder zu verarbeiten, werden einige wenige, jedoch hochauflösende und hochdynamische Bilder (High Dynamic Range Images - HDRI) als Ausgangsdaten verwendet. Zudem wird eine andere Bildgeometrie eingesetzt und Perspektivbilder werden durch voll-sphärische Bilder ersetzt. Diese Bilder beinhalten weit mehr Informationen als ein normales Bild und zeigen die gesamte Szene, wie sie vom Standort der Kamera gesehen werden kann. Die Zusatzinformationen des HDRI-Bildmaterials werden genutzt, um ein detailliertes und hoch präzises dreidimensionales Modell der Szene zu rekonstruieren. Erste kommerzielle Produkte auf Basis der CAPTURE-Technologie werden zurzeit in Kooperation mit der AGT Group (Germany) GmbH entwickelt, die als Teil des AGT International Netzwerks einer der am stärksten wachsenden Anbieter innovativer Softwarelösungen im Bereich der öffentlichen Sicherheit und des Städtemanagements ist. Die gewonnenen 3D Modelle werden beispielsweise zur Erstellung städtischer Auskunftssysteme oder der Einsatzplanung und Einsatzunterstützung in Notfallsituationen genutzt.
CeBIT 2011, Halle 9, A30
SmartSenior - Notfall-Lokalisierung
SmartSenior – Mobile Assistenzsysteme für medizinische Notfälle
Das vom DFKI entwickelte Notfall-Lokalisierung-Modul liefert im Notfall-Assistenz-System die geforderte Orts-Information und unterstützt unterschiedlichste Anwendungskontexte. So ist das Modul in der Lage im Innen- und Außenbereich, sowie in mobilen Umgebungen, z.B. während einer Autofahrt, den Benutzer zu orten. Dabei kommen unterschiedliche Techniken zum Einsatz, u.a. GPS, GSM, WLAN- und Bluetooth-Fingerprinting. Die Installation auf der CeBIT 2011 erlaubt die Erprobung der Indoor-Ortungs-Technologien in einer Simulations-Umgebung. Die Ortung in der realen Umgebung der CeBIT-Messe kann ebenfalls auf einem Smartphone sowohl in der Halle als auch im Aussenbereich demonstriert werden. Der medizinische Notfall, der die Ortung auslöst, wird beim Demonstrator durch das Drücken eines Knopfes auf dem Smartphone simuliert. Das Projekt SmartSenior wird vom Bundesministerium für Bildung und Forschung, BMBF, gefördert.
CeBIT 2011, Halle 9, A30
iHelpYou – Überwindung von Sprachbarrieren durch mobile Übersetzungsassistenten
Das DFKI Dialogsystem iHelpYou unterstützt bzw. ermöglicht die Arzt-Patient-Kommunikation zwischen Personen, die nicht dieselbe Sprache sprechen. Das System läuft auf einem iPad und unterstützt eine große Anzahl von typischen Arzt-Patient-Dialogen nach Not- und Unfällen, die zu Hause oder unterwegs passieren können. Darüber hinaus sind Konversationen während eines Krankentransportes und auch eine allgemeine Erstanamnese modelliert. Speziell auf ältere Mitbürger ausgerichtete Interaktionen sind ebenfalls Bestandteil des Systems. iHelpYou wird im Rahmen des Projekts SmartSenior vom Bundesministerium für Bildung und Forschung, BMBF, gefördert.
CeBIT 2011, Halle 9, A30
Roboterdame AILA: Menschenähnliche Bewegung und Wahrnehmung
Die am DFKI Robotics Innovation Center entwickelte Roboterdame AILA kann ihre Umgebung dreidimensional wahrnehmen, Objekte sowie deren Eigenschaften erkennen und gezielt mit ihnen umgehen. AILAs Wahrnehmung basiert hauptsächlich auf Stereo-Kamerabildern und Laserentfernungsmessern, die durch sogenannte Punktwolken ein Abbild der Umgebung erzeugen. Dem Menschen hilft sein Wissen über Raum, Struktur und die Lage von Objekten bei der Orientierung. AILA funktioniert ähnlich: Sie kann den Raum semantisch interpretieren, Tische und Regale durch ihre spatial-semantische Beschreibung identifizieren. So kann AILA komplexe Anweisungen befolgen, zum Beispiel „Hole die rote Dose aus dem Regal“ oder „Lege das Objekt auf den Tisch“. AILA ist für den Einsatz in Umgebungen gedacht, die bezüglich der Größe, Erreichbarkeit und Anordnung von Objekten für den Menschen gemacht sind.
Viele Eigenschaften eines Gegenstands, zum Beispiel seine Größe, kann AILA visuell erkennen. Allerdings ist das oft sehr aufwändig – und es gibt Merkmale wie das Gewicht, die nicht visuell erschlossen werden können. Stellt das Objekt dem Roboter relevante Informationen über ein sogenanntes semantisches Produktgedächtnis bereit, kann dieser Aufwand vermieden werden. Mit einer Antenne in ihrer linken Hand kann AILA die im semantischen Produktgedächtnis der Objekte gespeicherten Daten auslesen.
AILA geht aus dem vom Bundesministerium für Bildung und Forschung, BMBF, geförderten Projekt SemProM (Semantic Product Memory) hervor.
CeBIT 2011, Halle 9, A30
Elektromobilität: DFKI Robotics Innovation Center entwickelt neue Konzepte
Jetzt rollen sie, und das nahezu lautlos: Regionale Firmen und private Nutzer testen bereits einen Großteil der Elektrofahrzeuge in der vom Bundesministerium für Verkehr, Bau und Stadtentwicklung geförderten Modellregion Elektromobilität Bremen/Oldenburg. Gemeinsam mit dem Fraunhofer Institut für Fertigungstechnik und Angewandte Materialforschung IFAM koordiniert das DFKI Robotics Innovation Center die regionale Projektleitstelle. Zweisitzer, Viersitzer, Transporter und Zweiräder unterschiedlicher Hersteller werden auf ihre Alltagstauglichkeit geprüft. Durch Flottenversuche erhalten DFKI-Forscher Feedback von Fahrzeugnutzern, Betreibern und Servicedienstleistern. Derzeit entwickeln DFKI-Forscher ein effizientes und intelligentes Elektrofahrzeug. Das „RoboCar“ wird auf den Nutzerbedarf abgestimmt: Es soll seine Form morphologisch verändern können und modular ausgestattet sein, um sich an individuelle Mobilitätsbedürfnisse anzupassen. Ebenso soll es mit dem Nutzer, anderen Fahrzeugen und dem Gesamtverkehrssystem kommunizieren.
CeBIT 2011, Halle 9, A30
Useware-Engineering – Nutzerzentrierte Entwicklung von Bediensystemen
Eine komplizierte Anlagensteuerung stellt für den Bediener eine Zusatzbelastung zu seiner eigentlichen Arbeitsaufgabe dar. Insbesondere bei Stör- und Zwischenfällen ist eine hohe Systemtransparenz notwendig, damit der Mensch schnell und fehlerfrei reagieren kann. Bei der Entwicklung eines Bediensystems muss deshalb auf die menschlichen Fähigkeiten und Bedürfnisse Rücksicht genommen werden.
Um eine möglichst optimale Vorgehensweise bei der Entwicklung von gebrauchstauglichen Benutzungsschnittstellen sicherzustellen, hat der Forschungsbereich Innovative Fabriksysteme (IFS) des DFKI den Useware-Engineering Prozess etabliert, der verschiedene, sich überlappende Entwicklungsphasen unterscheidet. Die Phase der Analyse dient u.a. der Eingrenzung des Kontextes sowie der Spezifikation von Nutzergruppen für ein zu entwickelndes Produkt. Anhand verschiedener Methoden, wie Befragungen und Beobachtungen, werden Aufgaben, Bedürfnisse und Wünsche des Nutzers im jeweiligen Kontext ermittelt. Das frühzeitige Erfassen der Nutzeranforderungen erleichtert alle nachfolgenden Entscheidungsprozesse und hilft dabei, Fehler und Risiken bei der Entwicklung rechtzeitig zu erkennen und aufwändige Nacharbeiten zu vermeiden. Der Useware-Engineering Prozess des DFKI-IFS kann Entwicklungszeiten und -Kosten signifikant reduzieren. Das optimierte Bediensystem verbessert die Effektivität und Effizienz von modernen Produkten und schafft eine positive Nutzererfahrung beim Kunden.
CeBIT 2011, Halle 9, A30
CeLTech stellt vor: Innovationstechnologien für Mobile Learning, 3D-Medizin, Content Sharing und Talent Recruitment
Die Applikation „Learn & Go“ wurde für alle gängigen Smartphone-Betriebssysteme entwickelt und enthält die wesentlichen Funktionen eines Learning Management-Systems zur Nutzung auf Apple iPhone, Windows Mobile, Google Android, Blackberry OS und Nokia Symbian. Neben Anzeige und Nutzung virtueller Kursräume, Aufruf von Lernmaterialien, Einsicht in laufende Lehrveranstaltungen und den Kurskatalog stehen der Export des individuellen Semesterplans in den Smartphone-Kalender, Navigationsfunktion zum Hörsaal bzw. Kursraum sowie perspektivisch auch die Nutzung von Web 2.0-Diensten und Shared Services zur Verfügung. Entwickelt wurde die App im Auftrag und in Zusammenarbeit mit der IMC AG, einem der führenden eLearning-Anbieter in Europa.
Ein weiterer CeLTech-Schwerpunkt sind 3D Lehr- und Lerninhalte aus der Medizin. Vorgestellt werden virtuelle Anatomiemodelle des Menschen, die via Browsertechnologie oder auch in einem dreidimensionalen Projektionsraum, einem CAVE, zum Einsatz kommen können und aufgrund der spezifischen Anforderungen an die Tiefenwahrnehmung des Menschen in besonderer Weise für eine mehrdimensionale Darstellung im Bildungskontext geeignet sind. Auch wird mit eCampus Saar die gemeinsame Lernplattform der Hochschulen des Saarlandes vorgestellt, über die monatlich in rund 1.000 Online-Kursen mehr als 10.000 Studierende und Dozierende digitale Assessments, eTests, Web-Based Trainings und Web 2.0-Angebote nutzen wie auch die eLearning-Angebote der Microsoft IT-Academy.
Intelligente Assessment-Technologien werden für das Thema „Talent Recruitment“ präsentiert - sowohl für den Einsatz in Hochschulen als auch im Unternehmen. Am Beispiel der Themen IT- und HR-Consulting sowie der Auswahl individuell passender Studiengänge für Schülerinnen und Schüler wird online demonstriert, welche Potenziale die in CeLTech entwickelten Assessment-Technologien für das lebenslange Lernen haben.
CeLTech bündelt damit mehr als 20 Jahre Kompetenz in international, national und regional ausgewiesener Forschung und Entwicklung, Anwendung, Beratung und Services zu Bildungstechnologien, Informations- und Wissensmanagement und ist zugleich der Learning Service Provider für die Hochschulen des Saarlandes.
CelTech wird präsentiert in Halle 9, A30 und Halle 9, B43
DFKI-Exponate auf dem Stand der Universität des Saarlandes, Halle 9, B43
Die ganze Welt in einem Bild – Interaktive Visualierung von Gigapixel-Bildern
Wie Visualisierung im Supercomputer-Stil auch zu Hause an gewöhnlichen Computern, Tablet PC’s und Smartphones oder auch auf hochauflösenden Monitorwänden möglich wird, demonstrieren Mitarbeiter der Interactive Visualization and Data Analysis (IVDA)-Gruppe aus dem DFKI Forschungsbereich Agenten und Simulierte Realität. Sie informieren über die neueste Forschung und Entwicklung im Bereich großräumiger Datenvisualisierung. Interessierte können die Visualisierung von Gigabyte-Datensätzen auf einer hochauflösenden 80 Megapixel Powerwall aus erster Hand erleben. Ziel des Gigapixel-Visualisierungsprojekts ist es, riesige Bilddaten aus verschiedenen wissenschaftlichen Anwendungsbereichen mit der am DFKI entwickelten Software ZAPP (Zero Administration Powerwall Package) schnell und einfach auf einer breiten Palette von Geräten zu explorieren. Auf Grund der verteilten Architektur von ZAPP ist es nicht erforderlich, dass alle Bediener der Visualisierung am Standort präsent sind. Es genügt eine beliebige Internetanbindung, um auf das System zuzugreifen.
CeBIT, Halle 9, B43
CeLTech stellt vor: Innovationstechnologien für Mobile Learning, 3D-Medizin, Content Sharing und Talent Recruitment
CeLTech bündelt mehr als 20 Jahre Kompetenz in international, national und regional ausgewiesener Forschung und Entwicklung, Anwendung, Beratung und Services zu Bildungstechnologien, Informations- und Wissensmanagement und ist zugleich der Learning Service Provider für die Hochschulen des Saarlandes.
CeBIT, Halle 9, B43
uRun - DFKI entwickelt Lauftrainer fürs Handy
Mit uRun entwickelt das Institut für Wirtschaftsinformatik im DFKI ein mobiles Assistenzsystem, das speziell auf die Bedürfnisse von Läufern abgestimmt ist. Das System ermöglicht beispielsweise die Organisation eines Lauftreffs mit anderen Sportbegeisterten über das Smartphone. Außerdem kann der mobile Assistent über die Verbindung zu verschiedenen Sensoren Daten des Läufers wie Herzfrequenz oder Laufgeschwindigkeit kontinuierlich erfassen und auswerten. Zusätzlich ermittelt das Gerät die geographische Position des Sportlers und schlägt geeignete Laufstrecken vor. So kann der virtuelle Trainer beispielsweise erkennen, wenn der Läufer sich überanstrengt und ihm raten, seinen Lauf auf einem leichteren Streckenabschnitt fortzusetzen oder seine Laufgeschwindigkeit zu verringern. Akzeptanz und Gebrauchstauglichkeit von uRun werden zusammen mit aktiven Sportlern untersucht.
uRun ist ein Anwendungsbeispiel des Projekts uService (Ubiquitous Service Infrastructure for the Mobile Super Prosumer), gefördert vom Bundesministerium für Bildung und Forschung, BMBF. In uService wird eine neuartige Dienste-Infrastruktur entwickelt, die es einem mobilen Nutzer erlaubt, zu jeder Zeit und an jedem Ort eigene elektronische Dienste nach eigenen Bedürfnissen und Ideen zu erstellen. Um aus der riesigen Menge nutzergenerierter, mobiler Dienste die jeweils passenden Dienste zu finden, entwickelt das DFKI eine kontextbewusste, personalisierte Such- und Empfehlungsmaschine für das Handy, welche im Szenario uRun eine konkrete Anwendung findet.
CeBIT, Halle 9, B43
DFKI-Exponate auf dem Stand des Bundesministeriums für Wirtschaft und Technologie (BMWi-Stand), Halle 9, Stand B47
THESEUS-Forschungprogramm - Neue Technologien für das Internet der Dienste
RadSpeech - Ein semantisches Sprach-Dialogsystem für Radiologen
Mit RadSpeech soll die nächste Generation intelligenter, skalierbarer und benutzerfreundlicher Benutzerschnittstellen für die semantische Suche in medizinischen Bildverarbeitungsbereichen entwickelt werden. Ontologiebasierte Wissensrepräsentation wird dabei nicht nur für Bildinhalte genutzt, sondern auch für die komplexen Prozesse im Sprachverstehen und Dialogmanagement. Unter Einbeziehung von in Ontologien repräsentiertem, qualifiziertem Fachwissen können verschiedene Sichten auf medizinische Bilder (z. B. strukturelle, funktionale und krankheitsbedingte Aspekte) explizit repräsentiert und anwendbar gemacht werden.
CeBIT, Halle 9, B47
Cirius Demonstrator: Multimodale Interaktion mit semantischen Diensten und Wissensquellen
Das multimodale Dialogsystem Cirius ermöglicht den Zugriff auf Informationen, multimediale Inhalte und Services aus einer semantischen Datenbank mittels gesprochener Sprache und Gestik. An einer PHEX Multitouchkonsole oder über Smartphones können semantisch annotierte Inhalten zu Konrad Zuses Rechenmaschinen und zu Ereignissen, Organisationen und Personen abgerufen werden.
Entwickelt wurde Cirius im Rahmen des Förderprogramms THESEUS. Die Wissensbasis von Cirius ist eine Datenbank, die im THESEUS Use Case ALEXANDRIA vom Forschungspartner neofonie aufgebaut wurde. Neben Details zum Computererfinder Konrad Zuse bietet Cirius auch Informationen zu den Exponaten im THESEUS-Informationszentrum in Berlin.
CeBIT, Halle 9, B47
DFKI-Exponate im Auto ID/RFID Solutions Park, Halle 7, Stand D12
Künstliche Intelligenz im Handel – Das Innovative Retail Laboratory auf der CeBIT 2011 - Szenarien für die Zukunft der KI im Handel
Das Innovative Retail Laboratory (IRL) des DFKI präsentiert auf der CeBIT 2011 Szenarien für die Zukunft der KI im Handel. Aus dem 450 m2 großen Labor mit einzigartiger Infrastruktur für intelligente Einkaufsumgebungen in der Zentrale der GLOBUS SB-Warenhaus Holding in St. Wendel werden drei der mittlerweile über 20 Demonstratoren in Hannover live gezeigt.
Instrumentiertes Müsliregal: Produkte im Supermarkt der Zukunft wissen, wo sie hingehören, woraus sie bestehen und für wen sie bekömmlich sind.
Instrumentierte Obstschräge: Ein instrumentiertes Regal erkennt, wenn Produkte herausgenommen werden. Informationen zum Produkt werden auf einem Display angezeigt. Entnimmt ein Kunde mehrere Produkte, können die Inhalte einfach miteinander in tabellarischer Form auf dem Bildschirm verglichen werden.
Easy Checkout: Der Kunde kann nach Beendigung seines Einkaufs einfach und bequem durch eine RFID-Schleuse gehen, in der sein Einkaufswagen oder -korb mit den Produkten vom Kassensystem automatisch erkannt wird. Nach Bestätigung durch die Kassiererin kann der Kunde bargeldlos mit seiner Kundenkarte oder einem mobilen Gerät mit NFC-Technologie (Near Field Communication) bezahlen.
CeBIT, Halle 7, D12
Alle DFKI-Exponate werden ausführlich auch im aktuellen DFKI-Newsletter beschrieben:
DFKI-Stand CeBIT 2011: Halle 9, A30
DFKI-Exponate auf dem Stand der Universität des Saarlandes: Halle 9, B43
DFKI-Exponate auf dem Stand des BMWi: Halle 9, B47
DFKI-Exponate bei AIM-D im Auto ID/RFID Solutions Park: Halle 7, D12
DFKI-Pressekontakt
Reinhard Karger, M.A.
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) GmbH
Campus D 3.2
D-66123 Saarbrücken
Tel.: +49 681-85775 5253
Mobil: +49 151 15674571
E-Mail: reinhard.karger@dfki.de
http://twitter.com/ReinhardKarger