sxsw14 notes – DIY Everything with In-Car Augmented Reality

SXSW ging dit jaar meer dan anders over de toepassingen van de technologie en de nieuwe metaforen die we hebben leren kennen. Schreef ik eerder al over de ‘Pinterest for scientists’, in deze sessie over de automobiel-industrie ging het al snel over API’s en app stores. Termen die ze 5 jaar geleden toch niet snel in het openbaar zouden noemen. 

De auto-industrie is er eentje van continue verbeteringen. Nieuwe ontwikkelingen blijven komen, eerst voor luxere auto’s, na jaren doordruppelend naar middenklassers en verder. Deze panel sessie ging over ‘Augmented Reality’: Digitale informatie mengt zich met de werkelijke wereld. 

In Amerika is er al lang het OnStar systeem. Het panel begon met een uitleg over dat systeem en hoe ver dat eigenlijk al is. Niet alleen kan dat systeem zelfstandig 911 gaan bellen op het moment dat er een ongeluk is gebeurd, het geeft daarbij ook veel extra informatie door. Zoals: Was er 1 of meerdere klappen. Hoe groot is de kans op verwonding van de inzittenden. De volgende stap voor dit systeem is het direct doorgeven van informatie over de auto aan hulpdiensten, zodat ze precies weten waar ze wel en niet kunnen ‘knippen’ in de auto zonder zelf onder stroom te komen te staan. Bijvoorbeeld via een AR applicatie zodat hulpdiensten dit meteen kunnen zien. 

Steve Schwinke, Director of App Development van General Motors, vertelde over hun ideeën. Met nieuwe modellen van auto’s komen er meer “API’s” voor ontwikkelaars, die aan de slag kunnen via een echt Developers Center op https://developer.gm.com. Het zal dan niet zo zijn dat iedere app meteen gepubliceerd wordt in de app store: GM is zelf heel ervaren in hoeveel tijd (een blik van max 2 seconden) en handelingen (3 tot 4) een toepassing mag kosten om niet te veel af te leiden, en zullen deze normen toepassen. 

Zelf zijn ze bezig met eye-tracking voor de bestuurder. Hiermee kunnen ze zien of hij/zij nog goed oplet en niet in slaap dommelt, maar kunnen ze ook zien naar welke dashboard onderdelen gekeken wordt. Zo worden voice commando’s een stuk beter: Kijk naar de airco, en zeg ’20 graden’, het systeem zal je dan veel makkelijker kunnen begrijpen dan bij de huidige voice interpretaties. Ook doet GM onderzoek met de gegevens: Als er te vaak te lang gekeken wordt naar een knopje is dat misschien niet goed ontworpen. 

Apps moeten ook de vervanging worden van handleidingen. Wat betekent dat dashboard lampje?  Audi heeft nu al een app (eKurzinfo) waarbij je de camera er op kan richten, waarna de app gaat uitleggen wat het lampje of knopje is en wat het betekent. En als je de olie moet bijvullen laat de app via AR zien welk dopje daarvoor is, onder je motorkap. Ook met projectie; je ziet ‘door je telefoon’ het beeld van je motor, en met een grote bewegende pijl wordt gewezen naar de oliedop. Die app kan je nu al gebruiken met een nieuwe A1 of A3. Bekijk de demo-video hier:

En voor de liefhebbers van snelheid: Op de nieuwe Corvette zit een data-recorder die camerabeeld opneemt en allerlei informatie daar bij projecteert. Ontwikkeld door een game-developer. Vette demo-video:

Al met al een fijne sessie, mooi om te zien dat zelfs de auto-industrie bezig is met echt nieuwe toepassingen, en benieuwd welke creativiteit we gaan zien bij komende apps. Erg cool om bij de auto-gegevens te kunnen. Ik hoop dat API’s net zo gewoon gaan worden als ABS.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *