4 Schlüsseltechnologien auf der Embedded World 2016

UAV- / Drone-based civil engineering – surveying of a slope and rock stabilization (Oktober 2018).

Anonim

4 Schlüsseltechnologien auf der Embedded World 2016


Embedded World 2016 ist fast da. Hier sind einige Technologien, die Sie im Auge behalten sollten.

Autonome Autos sind die Zukunft der Automobilelektronik, aber sie sind Jahre von der kommerziellen Umsetzung entfernt. Was wir gerade haben, sind die fortschrittlichen Fahrerassistenzsysteme oder ADAS, und die Embedded World 2016 in Nürnberg zeigt, wo ADAS-Produkte und -Technologien in Bezug auf die kommerzielle Umsetzung stehen.

ADAS ist Technologie, die wir 2016 beobachten können

Die ADAS-Technologie treibt die Nachfrage nach Chips von Automobil-OEMs und Tier-1-Zulieferern sowie von After-Market-Herstellern an. Es überrascht daher nicht, dass Chip-Unternehmen von Altera über Cadence und Cypress bis hin zu Imagination Technologies das ADAS-Angebot während der Embedded World 2016 vom 23. bis 25. Februar vorstellen. Im Folgenden sind die vier wichtigsten technologischen Inhaltsstoffe aufgeführt, die wahrscheinlich das Wachstum von ADAS-Produkten vorantreiben werden und sich somit während der Embedded World 2016 sehen lassen werden.

Computer Vision

Die intelligente Kamera ist eindeutig das Gehirn des ADAS, und sobald sie mit leistungsstarken Computer Vision Algorithmen kombiniert ist, ermöglicht ADAS Fahrzeugen, nach draußen zu schauen, um die Straßenbedingungen zu überwachen, und nach innen zu schauen, um das Fahrerverhalten zu überwachen.

Die fortschrittlichen Computer-Vision-Algorithmen sind eine treibende Kraft in den ADAS-Angeboten der nächsten Generation. Und das erfordert leistungsschwache Bildchips, die eine Vielzahl von visuellen Informationen verarbeiten können, während sie Straßenobjekte wie Fußgänger und Tiere überwachen.

Freescale (jetzt Teil von NXP) kaufte Cognivue, um Computer Vision IP zu erwerben

Die steigende Anzahl von Kameras innerhalb und außerhalb des Autos ist ein Beweis dafür, dass die Computer Vision Technologie einen entscheidenden Einfluss auf ADAS im Jahr 2016 haben wird. Jetzt fügen Sie künstliche Intelligenz und tiefgreifende Lernalgorithmen dem Computer-Vision-Rezept hinzu, was zu bahnbrechenden ADAS-Produktentwicklungen führen kann während dieses Jahres.

Automobilradare

Offensichtlich werden Kameras in Fahrerassistenzsystemen eine zentrale Rolle spielen, sie werden jedoch in der Nacht und in Situationen wie Nebel, Schnee und Regen behindert. Es ist also sehr wahrscheinlich, dass die Automobilindustrie sich nicht auf eine einzige Sensortechnologie verlassen wird, um den ADAS zu ermöglichen. Geben Sie die Light Detection And Ranging-Technologie oder LiDAR ein.

Radar ist der andere Hauptsensor nach der Kamera in ADAS-Produkten; es kann durch Dunkelheit und Nebel sehen, und es kann auch die Geschwindigkeit und Entfernung von Objekten messen. Darüber hinaus bieten LiDAR-Systeme eine höhere Auflösung und detailliertere Details der Objekte. Laut Frost & Sullivan integrieren sieben von 13 Top-Automobilherstellern die LiDAR-Technologie in ihre Fahrzeuge.

Der kleine CMOS-Radarchip von NXP soll traditionelle Ultraschalllösungen ersetzen

LiDAR-Systeme befinden sich jedoch immer noch im Entstehen, mit einer bescheidenen Auflösung und einer begrenzten Reichweite. Die aktuellen LiDAR-Produkte sind relativ teuer und können mit begrenztem Reflexionsvermögen bis zu 100 Meter scannen. Darüber hinaus kommen sie in größeren Verpackungen aus zwei bis drei SiGe-Chips.

NXP hat auf der CES 2016 eine Single-Chip-CMOS-Lösung für Radarsysteme für kurze Reichweiten vorgestellt. NXP behauptet, dass sein 77-GHz-HF-Transceiver-Chip 40 Prozent weniger Strom verbraucht als herkömmliche Radar-ICs und OEMs dabei helfen wird, sperrige Ultraschallradare zu ersetzen leichte und hochauflösende Sensoren.

ASIL-Zertifizierung

Bei den Standards für vernetzte Fahrzeuge wie ADAS dreht sich alles um funktionale Sicherheit. Daher enthält die ISO 26262-Spezifikation strenge Zuverlässigkeitsmerkmale in Automobilchips. Diese leistungsfähigen Chips werden eine größere Rechenleistung benötigen, um die rechnerische Konsolidierung zu erreichen, die für Technologien wie das ADAS kennzeichnend ist.

Der TDA3x ADAS-Chip von TI entspricht dem funktionalen Sicherheitsstandard ISO 26262

Es überrascht daher nicht, dass die ASIL-Zertifizierung (Automotive Safety Integrity Level), die in der Norm ISO 26262 für funktionale Sicherheit für Straßenfahrzeuge definiert ist, für ADAS-Lösungsanbieter zu einer Hauptpriorität geworden ist. Nehmen Sie CEVA, den Lieferanten XM4 Vision Prozessor IP, der kürzlich die ASIL B-Zertifizierung erhalten hat.

Sensor Fusion

Ein ADAS-Produkt umfasst üblicherweise eine oder mehrere Kameras, GPS, einen Trägheitssensor, einen Prozessor und ein Kommunikationsmodem. Der Prozessor unterstützt Computer Vision, künstliche Intelligenz und Deep-Learning-Algorithmen, um kontextsensitive Sprach- und Bilderkennung für ADAS-Warnsysteme zu ermöglichen.

Sensorfusion ist entscheidend bei der steigenden Anzahl von Sensoren in ADAS (Bild: TI)

Ein Fahrerassistenzsystem ist mehr als die Kamera- und Radarsensoren. Ein Cocoon von Sensoren ist erforderlich, um ADAS-Funktionen wie 360-Grad-Ansicht und automatisches Parken zu ermöglichen. Ein Inertialsensor überwacht beispielsweise die Geschwindigkeit und Beschleunigung des Fahrzeugs. Dann gibt es Annäherungs- und Lichtdetektionssensoren.

Eine robuste Sensorfusion ist entscheidend dafür, dass viele Daten von Kameras, Radargeräten und anderen Sensoren in Echtzeit genau erfasst werden. Die Daten von verschiedenen Sensoren werden üblicherweise zu einem zentralen Ort - Sensor-Hub - geleitet, der den Zentralprozessor von der Sensornummer-Verarbeitung ablädt. Genauigkeit und Energieverbrauch sind hier die wichtigsten Herausforderungen für die intelligente Fusion einer heterogenen Sensorwelt.