Mittwoch, 6. September 2017

Testdatenmanagement werden neue Weg gehen

Ein Team aus drei Fahrern, einem speziell präparierten VW Touareg, fuhren in nur neun Tagen über 19.000 km, vom Nordkap zum Kap Agulhas in Südafrika was einen Bestand von 1,6 Milliarden Datenbankzeilen ergab. 

Der VW Touareg erzeugte während der Rekordfahrt zu  Testzwecken, einen sehr grossen Datenstrom. Schon bei einzelnen Testfahrt fallen bereits mehrere Terabyte Daten an. Experten gehen davon aus, dass diese Informationsmenge in den nächsten Jahren in den Petabyte-Bereich vorstossen wird. Allein vier Fahrwerkssensoren generierten jeweils eine riesige Datenmenge von 1’000 Messwerte pro Sekunde. Eine Millisekunden-genaue Abtastung wird auch heute in Serienfahrzeugen innerhalb der Steuergeräte, Elektronisches Stabilitätsprogramm (ESP) benötigt. 

Solche Datenmengen lassen sich meist nicht mehr sinnvoll über mobile Datenleitungen übertragen. Daher werden sie in Datenspeichern abgelegt und physikalisch von  den Testingenieuren zur Auswertung gebracht. Dabei vergehen Tage oder sogar Wochen, bis die Daten für die Analyse zur Verfügung stehen. Werden dann Auffälligkeiten bemerkt, ist es meist zu spät, weitere Daten einzufahren, da die Testfahrt längst abgeschlossen ist. Es stellt sich daher die Frage, wie man diese Datenmengen auch während einem Feldtests, in abgelegenen Gebieten, möglichst schnell analysieren und mit bereits vorhandenen Testdaten kombinieren kann.

Beim Testdatenmanagement werden neue Weg kommen. Die Date werden nicht mehr zur Analyseplattform beziehungsweise zu den Datenspezialisten übertragen, sondern nur noch die Analysefragen und die Analyseergebnisse werden transportiert. Das verringert die Anforderungen an die Übertragungsbandbreite erheblich und ermöglicht eine Auswertung auch grosser Testdatenmengen fast in Echtzeit.

Keine Kommentare:

Kommentar veröffentlichen