PatentDe  


Dokumentenidentifikation DE102006045115A1 05.04.2007
Titel System und Verfahren zur Zielverfolgung unter Verwendung von Sensorfusion
Anmelder GM Global Technology Operations, Inc., Detroit, Mich., US
Erfinder Altan, Osman D., Northville, Mich., US;
Zeng, Shuqing, Sterling Heights, Mich., US
Vertreter Manitz, Finsterwald & Partner GbR, 80336 München
DE-Anmeldedatum 25.09.2006
DE-Aktenzeichen 102006045115
Offenlegungstag 05.04.2007
Veröffentlichungstag im Patentblatt 05.04.2007
IPC-Hauptklasse G06F 17/10(2006.01)A, F, I, 20060925, B, H, DE
IPC-Nebenklasse G01S 13/66(2006.01)A, L, I, 20060925, B, H, DE   G01S 13/86(2006.01)A, L, I, 20060925, B, H, DE   
Zusammenfassung Ein Zielverfolgungs- und Sensorfusionssystem wird für die Verwendung mit einem Fahrzeug angepasst und zum Beobachten eines Zustands mindestens eines Objekts während eines Zyklus ausgebildet. Das System weist mehrere Sensoren und einen neuartigen Controller auf, der kommunikativ mit den Sensoren gekoppelt ist und zu einer genaueren Schätzung des Zustands auf der Grundlage einer Sensorfusion ausgebildet ist. Bei einer bevorzugten Ausführungsform wird eine Kalman-Filterung verwendet, um eine fusionierte Schätzung des Objektortes zu produzieren. Der bevorzugte Controller ist ferner ausgebildet, um jede neue Sensorbeobachtung mit einem Track in einer Trackliste abzugleichen und den Track während eines nachfolgenden Zyklus aus der Trackliste zu entfernen, wenn eine übereinstimmende Beobachtung nicht bestimmt wird.

Beschreibung[de]

Die vorliegende Erfindung betrifft Objektverfolgungssysteme, und insbesondere ein Mehrfachsensorsystem sowie ein Verfahren zum Fusionieren von Daten von mehreren Sensoren zum genaueren Schätzen des Ortes eines gegebenen Objekts.

Objektverfolgungs- und Zielprofilierungssysteme sind als Teil von Sicherheitsanwendungen in verschiedenen Industriezweigen einschließlich der Luftfahrtindustrie und der Automobilindustrie entwickelt worden. Diese Systeme verwenden eine periodische oder kontinuierliche Detektion von Objekten sowie Steuerungsalgorithmen, um verschiedene Flächenparameter eines Objekts zu schätzen, wie zum Beispiel die relative Objektentfernung, die zeitliche Entfernungsänderung (d. h. Annäherungs- oder Entfernungsgeschwindigkeit) und die Azimutposition (d.h. Richtung), ebenso wie gegebenenfalls dreidimensionale Parameter, wie zum Beispiel Höhe oder Elevation, um dem Objekt auszuweichen, ihm zu folgen oder es anderweitig zu überwachen. Es ist offensichtlich, dass die Fähigkeit dieser Systeme, genaue Schätzungen zu liefern, für das Erreichen der gewünschten Leistungen ihrer Anwendungen entscheidend ist.

Beispielsweise können ungenaue Schätzungen oder verfehlte Detektionen zu falsch positiven Ergebnissen, Kollisionen und anderen Systemfehlern führen. Zusätzlich zu physikalischen Fehlfunktionen wird jedoch der Fachmann auf dem Gebiet einsehen, dass die Standardabweichung der Messung für einen bestimmten Sensor plus die Hintergrundstörung (typischerweise als weißes Gaußsches Rauschen modelliert) auch einen Grad an Ungenauigkeit liefert, der allen sensorischen Ausführungssystemen inhärent ist. Die Ungenauigkeit dieser Systeme beim Bestimmen der exakten Lage des Objekts bereitet dort, wo diese in komplizierten oder kritischen Anwendungen verwendet werden, weitere Probleme.

Um die Wahrscheinlichkeit einer Objektdetektion zu verbessern, werden oft mehrere Sensoren innerhalb eines Systems verwendet. In Bezug auf Automobilanwendungen, wie zum Beispiel Kollisionsdetektions- oder Spurhaltesysteme, können diese Sensoren GPS, FM-CW-Radar, Puls- und FSK-Radar sowie CCDs, CMOS oder andere Kamera/Video-Bildprozessoren umfassen. Unabhängig von der Anwendung funktionieren diese Mehrfachbeobachter-Konfigurationen im allgemeinen jedoch so, dass sie dasselbe Objekt detektieren, um Reserve- oder redundante Detektionsmittel bereitzustellen, und verbessern deshalb typischerweise die Gesamtgenauigkeit des Systems nicht über die des genauesten Sensors hinaus. Mehrfachbeobachter-Systeme, die entwickelt worden sind, um die Genauigkeit zu erhöhen, wie zum Beispiel Phasenarray-Mehrstrahl-Radarsysteme, erfordern für den Betrieb typischerweise einen komplexen Aufbau und eine teure Ausstattung.

Schließlich werden dort, wo Mehrfachbeobachter-Konfigurationen verwendet werden, für jedes detektierte Objekt mehrere Sätze von Daten erzeugt und statisch als Tracks gespeichert. Aufgrund der Vervielfachung von Daten können die Tracks mit der Zeit umfangreich werden und somit eine teure und mühsame Datenspeicherung und -bearbeitung erforderlich machen. Die Unfähigkeit dieser Systeme, inaktive und ansonsten nutzlose Tracks aus dem System zu entfernen, hat ferner verschwendete Ressourcen und eine mögliche Verwirrung bei dem System, der Anwendung oder dem Anwender zur Folge.

In Reaktion auf diese und andere Probleme wird ein verbessertes Zielverfolgungssystem und -verfahren vorgestellt, das mehrere Sensoren und Datenfusion verwendet, um die Genauigkeit und Gewissheit von Messungen des Systems gegenüber denen eines jeden einzelnen Systemsensors zu erhöhen. Die vorliegende Erfindung ist unter anderem nützlich zum Erweitern der Abdeckung beim Zusammenfügen eines Blickfeldes, zum Reduzieren der Erfassungs-/Wiedererfassungszeit von Objekten, zum Verringern der Wahrscheinlichkeit, falsch positive und falsch negative Ergebnisse zu produzieren, sowie zum Erweitern des Bereichs von ausführbaren Anwendungen, für die herkömmliche Sensoren verwendet werden können.

Ein erster Aspekt der vorliegenden Erfindung betrifft ein Zielverfolgungs- und Sensorfusionssystem zum Schätzen eines Zustands mindestens eines Objekts. Das System weist einen ersten Sensor, der zum Bestimmen einer ersten Schätzung eines Zustands des Objekts ausgebildet ist, und einen zweiten Sensor auf, der zum Bestimmen einer zweiten Schätzung des Zustands ausgebildet ist. Das System weist weiter einen Controller auf, der kommunikativ mit den Sensoren gekoppelt ist und zum Bestimmen einer dritten Schätzung des Zustands ausgebildet ist. Die dritte Schätzung beruht teilweise auf den ersten und zweiten Schätzungen, und jede der ersten und zweiten Schätzungen weist einen gemessenen Wert und eine Standardabweichung auf. Schließlich zeigt die dritte Schätzung einen berechneten Wert und eine Standardabweichung, die geringer ist als jede der ersten und zweiten Standardabweichungen.

Ein zweiter Aspekt der vorliegenden Erfindung betrifft ein Computerprogramm zur Ausführung durch mindestens ein elektronisches Gerät, das mehreren Sensoren zugeordnet ist, wobei jeder der Sensoren zum Schätzen mindestens eines Zustands mindestens eines Objekts ausgebildet ist. Das Programm ist ausgebildet, um Anfangsschätzdaten des mindestens einen Zustands von den Sensoren zu empfangen und einen Sensorfusionsalgorithmus auf die Anfangsschätzdaten anzuwenden, um eine Statusschätzung für den mindestens einen Zustand zu bestimmen. Die Statusschätzung zeigt eine höhere Wahrscheinlichkeit und eine kleinere Standardabweichung als die Anfangsschätzdaten.

Bei einer Ausführungsform dieser Erfindung wird der Sensorfusionsalgorithmus auf ein Landfahrzeug angewendet, das mehrere ähnliche oder verschiedene Sensoren aufweist, um die Robustheit der Objektdetektion zu erhöhen. In dieser Konfiguration können Anwendungen wie z. B. "full speed automatic cruise control" (ACC), automatisches Bremsen und Precrash-Systeme verbessert werden.

Die Erfindung wird im Folgenden beispielhaft anhand der beigefügten Zeichnung beschrieben. In dieser zeigt:

1 eine Draufsicht eines Fahrzeugs gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung, die insbesondere Komponenten eines bevorzugten Zielverfolgungs- und Sensorfusionssystems darstellt;

1a eine Draufsicht eines Fahrzeugs gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung, wobei das Fahrzeug auf einer Verkehrsstraße fährt und mehrere Sensoren verwendet, um zwei fahrende entfernte Fahrzeuge zu verfolgen;

2 ein Blockschaltbild einer bevorzugten Ausführungsform des Systems, das insbesondere die gegenseitige Beziehung zwischen den Modulen zur Beobachtung, zur Datenzuordnung und -gruppierung sowie zum "Track Life Management" darstellt;

3 ein Blockschaltbild einer bevorzugten Ausführungsform des Sensorfusionsprozesses, einschließlich Radar- und Visionssensoren; und

4 ein Flussdiagramm einer bevorzugten Ausführungsform des Steuerungsalgorithmus in Bezug auf das "Track Life Management".

Die vorliegende Erfindung betrifft ein verbessertes Zielverfolgungs- und Sensorfusionssystem 10. Bei den hier beschriebenen und dargestellten bevorzugten Ausführungsformen der vorliegenden Erfindung ist das System 10 für die Verwendung mit einem Fahrzeug 12 angepasst, das mehrere Sensoren aufweist, die zum Detektieren der Lage und zum Verfolgen mindestens eines Objekts ausgebildet sind. Allgemein verwendet das System 10 einen Algorithmus, um Zustandsdaten von den Sensoren zu empfangen und eine genauere und korrektere Schätzung des Zustands zu bestimmen. Zu Zwecken der Veranschaulichung ist das System 10 in

1 und 1a mit einer Mehrzahl von zwei Sensoren 14, 16 und zwei Objekte (d. h. Ziele) 18, 20 verfolgend gezeigt. Es liegt jedoch im Rahmen der vorliegenden Erfindung, die neuartigen Aspekte und Merkmale der Erfindung in einem anderen Umfeld zu verwenden, in dem eine genauere Zielverfolgung gewünscht ist. Zum Beispiel kann die vorliegende Erfindung bei Flugsicherungssystemen, nautischen Navigationssystemen und Waffenführungssystemen verwendet werden.

Bei einer hier im Weiteren beschriebenen bevorzugten Ausführungsform der Erfindung verwendet der Algorithmus ein Fusionsverfahren, das auf einer Kalman-Filterung (KF) beruht. Der Fachmann auf dem Gebiet wird einsehen, dass eine KF-Anwendung verwendet wird, um Korrelationseigenschaften jedes Ziels 18, 20 entlang einer Zeitachse zu untersuchen. Mit anderen Worten wird angenommen, dass sich das verfolgte Ziel über einen Zeitraum gleichmäßig bewegt. Das System 10 ist ferner zum Erfassen der räumlichen Korrelation ausgebildet (d. h. der relativen Position jedes Objekts, wie durch mehrere Sensoren beobachtet).

Unter Bezug auf 2 umfasst eine bevorzugte Ausführungsform des Systems 10 allgemein ein Beobachtungsmodul 22, ein Datenzuordnungs- und -gruppierungsmodul (DAC) 24, das ferner ein Kalman-Filter 24a aufweist, und ein Modul 26 zum Verwalten der Track-Lebensdauer ("Track Life Management"-Modul (TLM-Modul)), das eine Trackliste 26a überwacht, die mehrere Objekttracks umfasst. Insbesondere umfasst das Beobachtungsmodul Sensoren, ihre jeweiligen Sensorprozessoren und die Verbindung zwischen den Sensoren, Sensorprozessoren und dem DAC-Modul. In Bezug auf Landfahrzeuge ist es einzusehen, dass diese Sensoren GPS-Systeme, "charged-coupled device" (CCD)- oder "complementary metal oxide semi-conductor" (CMOS)-Video-Bildsensoren, lang- und mittelreichweitige Radar- und Lidar-Sensoren sowie Ultraschallsensoren umfassen können. Diese Sensoren sind vorzugsweise an relativ unversperrten Stellen innerhalb des Fahrzeugs angeordnet.

Der Fachmann auf dem Gebiet wird einsehen, dass keiner dieser Sensoren perfekt beim Erfüllen seiner bestimmungsgemäßen Funktion ist, sondern stattdessen nur eine Schätzung des tatsächlichen Ortes oder Zustands liefert, wobei die Schätzung einen geschätzten Wert und eine Standardabweichung präsentiert. Deshalb werden die sensorische Detektion und die Messung von Objektorten und -zuständen hier als "Schätzungen" bezeichnet.

Es ist ferner einzusehen, dass die Eigenschaften dieser Sensoren insofern komplementär sind, als einige verlässlicher beim Schätzen bestimmter Parameter sind als andere. Herkömmliche Sensoren haben unterschiedliche Betriebsbereiche und Winkelabdeckungen und sind in der Lage, innerhalb ihres Betriebsbereichs unterschiedliche Parameter zu schätzen (siehe 1a). Zum Beispiel können Radarsensoren gewöhnlich die Entfernung, die zeitliche Entfernungsänderung und die Azimutlage eines Objekts schätzen, sie sind normalerweise aber nicht robust beim Schätzen der Ausdehnung eines detektierten Objekts. Eine Kamera mit Visionsprozessor ist beim Schätzen der Gestalt und der Azimutposition des Objekts robuster, aber weniger effizient beim Schätzen der Entfernung und der zeitlichen Entfernungsänderung des Objekts. Abtastende Lidar-Systeme arbeiten effizient und genau bezüglich des Schätzens der Entfernung und der Azimutposition, sie können aber nicht die zeitliche Entfernungsänderung schätzen und sind deshalb nicht genau in Bezug auf die Erfassung/Erkennung von neuen Objekten. Ultraschallsensoren sind in der Lage, die Entfernung zu schätzen, aber im Allgemeinen nicht in der Lage, eine zeitliche Entfernungsänderung und Azimutposition zu schätzen oder zu berechnen. Ferner ist es bekannt, dass die Leistungsfähigkeit jeder Sensortechnologie durch unterschiedliche Umgebungsbedingungen beeinflusst wird. So zeigen herkömmliche Sensoren parametrische Varianzen, aber, was noch wichtiger ist, die funktionelle Überlappung dieser Sensoren (siehe 1a) schafft Gelegenheiten zur Sensorfusion.

Wie in 3 gezeigt, weist das dargestellte Beobachtungsmodul 22 einen Radarsensor 14, einen Radarprozessor 14a, eine Kamera 16 und einen Visionsprozessor 16a auf. Der Radarprozessor 14a wandelt von dem Radar 14 empfangene Signale um, um für jedes Objekt 18, 20 Schätzungen der Entfernung (RR), der zeitlichen Entfernungsänderung (R. R) und des Azimutwinkels (lR) zu bestimmen. In ähnlicher Weise wandelt der Visionsprozessor 16a von der Kamera 16 empfangene Signale um, um auch einen zweiten Satz von Schätzungen der Entfernung (RV), der zeitlichen Entfernungsänderung (R. V) und des Azimutwinkels (lV) für die Objekte 18, 20 zu bestimmen.

Das bevorzugte DAC-Modul 24 weist einen Controller 28 auf, wobei ein Computerprogramm (nicht gezeigt) gespeichert und ausgebildet ist, um die Schätzdaten von jedem der mehreren Sensoren zu empfangen, die Daten zu ähnlichen Beobachtungstracks (d. h. Beobachtungen desselben Objekts durch mehrere Sensoren) zu gruppieren und die gruppierten Beobachtungen zu fusionieren, um einen wahren Trackstatus zu bestimmen. Idealerweise ergibt das Fusionieren von Daten von Sensoren verschiedener Technologien robustere Ergebnisse. Wiederum ist es einzusehen, dass bei dieser Technik jede Anzahl von Sensoren verwendet werden kann und dass die Ergebnisse umso robuster sind, je mehr Sensoren fusioniert werden. Es ist jedoch auch einzusehen, dass eine erhöhte Anzahl von Sensoren eine erhöhte Komplexität des Algorithmus und das Erfordernis von mehr Rechenleistung zur Folge hat, um innerhalb desselben Zeitfensters Ergebnisse zu produzieren. Der bevorzugte Controller 28 ist innerhalb des Hostfahrzeugs 12 untergebracht, kann aber auch an einem entfernten Ort angeordnet sein. Diesbezüglich ist der bevorzugte Controller 28 elektrisch an die Sensorprozessoren 14a, 16a gekoppelt, er kann aber auch drahtlos durch HF, LAN, Infrarot oder eine andere herkömmliche Drahtlos-Technologie angekoppelt sein.

Schließlich ist das bevorzugte TLM-Modul 26 ausgebildet, um dann die fusionierten Daten ähnlicher Beobachtungen zu empfangen und die fusionierten Beobachtungen in einer Liste von Tracks 26a zu speichern. Das TLM-Modul 26 ist ferner zum Unterscheiden von Tracks gemäß ihrer Immanenz ausgebildet. Bevorzugt ist das TLM-Modul ausgebildet, um jedem Track einen Stärkewert zuzuordnen und in jedem Zyklus, abhängig davon, ob während des Zyklus eine ähnliche Beobachtung gemacht wurde, einen vorbestimmten Wert oder mit einer vorbestimmten Rate zu der Anfangsstärke zu addieren oder von dieser zu subtrahieren.

Eine bevorzugte Ausführungsform der erfinderischen Algorithmen und der Funktion des Controllers 28, um diese Aufgaben auszuführen, ist wie folgt genauer beschrieben:

I. Beobachtungsmodul

Wie vorher erwähnt, ist in 3 ein Blockschaltbild eines beispielhaften Systems gezeigt, bei dem zwei Sensorsysteme, (i) ein Radar mit Radarprozessor und (ii) eine Kamera mit Visionsprozessor, Beobachtungsschätzungen erfassen und an den Sensorfusionscontroller 28 übermitteln. Der Radarprozessor erzeugt drei Parameter, die Entfernung (RR), die zeitliche Entfernungsänderung (R. R) und den Azimutwinkel (lR). Eine Anzahl dieser Parameter wird in jeder Zyklusdauer abhängig von der Anzahl von Objekten mit genügendem "Radar-Querschnitt" im Blickfeld des Radars erzeugt. Diese Objekte werden in der Form (RRi, R. Ri, &THgr;Ri) dargestellt, wobei i = 1, 2, ..., p und p die Anzahl der von dem Radarprozessor detektierten Objekte bezeichnet.

In ähnlicher Weise erzeugt der Visionsprozessor eine Beobachtung: Entfernung (RV), zeitliche Entfernungsänderung (R. V), und Azimutwinkel (lV) in jedem Zeitfenster auf der Grundlage von "Template Matching" und relativem Offset von der Horizontlinie in der Bildebene, die durch (RVj, R. Vj, lVj) dargestellt werden, wobei j = 1, 2, ..., q und q die Anzahl der von dem Visionsprozessor detektierten Objekte bezeichnet.

II. DAC-Modul und Sensorfusion:

Der bevorzugte Controller 28 ist zum Anwenden eines Sensorfusionsalgorithmus auf die Beobachtungsschätzungen ausgebildet und verwendet diese Eingaben, um einen genaueren fusionierten Track zu erzeugen, wobei der Ausdruck "genauer" durch eine wahrscheinlichere geschätzte Lage und eine verringerte Standardabweichung definiert ist (d. h. eine höhere und schmalere statistische Glockenkurve). In 3 werden vier Parameter durch den Controller 28 erzeugt: eine fusionierte Entfernung (r), eine zeitliche Entfernungsänderung (ṙ), ein Azimutwinkel (&thgr;) und eine zeitliche Azimutwinkel-Änderung (&thgr;. ), dargestellt durch (rk, ṙk, &thgr;k, k), wobei k = 1, 2, ..., r und r die Anzahl der fusionierten Tracks bezeichnet. Auf diese Weise ist der bevorzugte Controller 28 zumindest in Bezug auf die zeitliche Azimutwinkel-Änderung ferner ausgebildet, um Daten über einen Zeitraum zu speichern und mehrere Dateneinträge eines ersten Zustands zu verwenden, um eine zweite Zustandsschätzung zu bestimmen. Bei einer bevorzugten Ausführungsform kann der Fusionsalgorithmus in einem Echtzeit-System mit einer geeigneten Hardware- und Schnittstellenkonfiguration implementiert sein.

Wie in 1 gezeigt, erzeugt das System 10 für mehrere Objekte mehrere Tracks. Ein Statusvektor (Y(t)) repräsentiert den Status der Tracks und stellt sich wie folgt dar: Y(t) = [y1(t)T y2(t)T ... yr(t)T]T(1), wobei der Index t eine diskrete Zeit bezeichnet, r die Anzahl der Tracks bezeichnet und die k-te Komponente yk(t) wie folgt der Zustand des k-ten Tracks in Polarkoordinaten ist: yk(t) = [rk(t) ṙk(t) &thgr;k(t), &thgr;.k(t)]T(2).

Zur Vereinfachung der Berechnung wird angenommen, dass die Tracks statistisch voneinander unabhängig sind. Diese Annahme ermöglicht es, jeden Track separat zu modellieren. Gleichungen für die Entwicklung eines Tracks (yk) werden vorzugsweise bestimmt, indem während eines Sample-Intervalls &Dgr;t konstante Werte sowohl für die zeitliche Entfernungsänderung (ṙk) als auch für die zeitliche Azimutwinkel-Änderung (&thgr;. k) angenommen werden, so dass: yk(t + 1) = Fyk(t) + vk(3), wobei und vk ein "4 mal 1"-Vektor für weißes Gaußsches Rauschen ist mit vk ~ N(0, Q), wobei Q die Kovarianzmatrix ist. Auf diese Weise ist ein zukünftiger Trackstatus yk(t + 1) auf der Grundlage eines vorher bestimmten Trackstatus yk(t) dort bestimmbar, wo keine dazwischen liegende Beobachtung gemacht wird.

Um jedoch das dynamische Verhalten eines Einscher-, Losfahr-, oder Fahrverhaltenänderungs-Szenarios (z.B. eine unerwartete Verzögerung) zu erfassen, ist der bevorzugte Controller 28 ferner zum Vergleichen einer nachfolgenden Beobachtung mit jedem Track ausgebildet, um eine Übereinstimmung mit einem Track zu bestimmen. Bei einer KF-Ausführungsform wird jede Beobachtung auf der Grundlage einer Metrik einem Track zugeordnet. Bei der dargestellten Ausführungsform und zu einer diskreten Zeit t erzeugen die Radar- und Visionsprozessoren Beobachtungen ORi = {(ṘRi, &THgr;Ri, RRi)|i = 1, ..., p} bzw. OVj = {(RVj, ṘVj, &THgr;Vj)|j = 1, ..., q}.

Bei einer gegebenen Beobachtung ORi oder OVj können die Polarkoordinaten oder die zeitliche Entfernungsänderung gemäß den folgenden Differenzparametern mit einer entsprechenden Komponente eines gegebenen Tracks verglichen werden: &Dgr;Rk,i = rk – Ri für k = 1, ..., r und i = 1, ..., p + q, &Dgr;Ṙk,i = ṙk – Ṙi für k = 1, ..., r und i = 1, ..., p + q und &Dgr;&THgr;k,i = &thgr;k – &THgr;i für k = 1, ..., r und i = 1, ..., p + q.

Auf jeden der Differenzparameter wird eine Funktion angewendet, die empirisch von den Eigenschaften der Radar- und Visions-Messfühlersysteme abgeleitet ist und als fR(&Dgr;R), f(&Dgr;Ṙ) bzw. f&THgr;(&Dgr;&THgr;) bezeichnet wird.

Die Parameter werden dann kombiniert, um eine Gütegröße Lk,i zu bestimmen, wobei: Lk,i = kRfR(&Dgr;Rk,i) + kf(&Dgr;Rk,i) + k&THgr;f&THgr;(&Dgr;&THgr;k,i)(4)

Die Größe Lk,i gibt die Güte an, mit der Oi mit dem k-ten Track übereinstimmt. Die drei Funktionen fR(&Dgr;R), f(&Dgr;Ṙ) und f&THgr;(&Dgr;&THgr;) definieren Fenster, die von der Genauigkeit der Radar- und Visionssensoren 14, 16 beim Schätzen der entsprechenden Parameter abhängen. Die Konstanten kR, k und k&THgr; definieren die Gewichte der Parameter, die zur Entscheidungsfindung verwendet werden, und beruhen auf der Robustheit der einzelnen Sensorparameter.

Ein Gütefunktionswert (Li) einer Beobachtung Oi, der gleich ist, wird dann mit einem Schwellenwert T verglichen. Dort, wo Li ≥ T, wird Oi als Übereinstimmung gewertet und mit maximaler Güte dem k-ten Track zugeordnet. Das heißt, dass LK,i ≥ Lk,i für alle k = 1, ..., r. Die Funktionen fR(&Dgr;R), f(&Dgr;Ṙ) und f&THgr;(&Dgr;&THgr;) können unter Verwendung verschiedener Techniken gebildet werden, einschließlich einer Likelihood-Funktions-Methodik (z.B. Fuzzy Logik). Jedoch wird eine symmetrische Kernfunktion (K(•)) in der dargestellten Ausführungsform bevorzugt. Zum Beispiel kann die folgende Formel verwendet werden: wobei hR einen Skalierungsfaktor bezeichnet, der die Sensoreigenschaften widerspiegelt. Insbesondere können zwei typische Kernfunktionen verwendet werden:

  • (i) Gaußscher Kern: K(u) = exp(–u2)
  • (ii) Quadratischer Kern:

Alle Beobachtungen, die bestimmt werden, zu einer diskreten Zeit t mit einem gegebenen Track y(t) übereinzustimmen, werden mit Oi, i = 1, ..., s bezeichnet, wobei s die Anzahl der dem Track zugeordneten Beobachtungen ist. Es wird wieder angenommen, dass jede Beobachtung statistisch unabhängig ist und deshalb separat betrachtet werden kann. Wenn es eine Übereinstimmung gibt, wird Oi bevorzugt durch die folgende Formel modelliert: Oi(t) = Gy(t) + wi(6), wobei wi ein "3 mal 1"-Vektor für weißes Gaußsches Beobachtungsrauschen mit wi ~ N(0, Ri) ist und die Kovarianzmatrix (Ri) von der Genauigkeitsangabe des beobachtenden Sensors abgeleitet ist.

Auf diese Weise kann der neue Trackstatus mit den folgenden KF-Gleichungen geschätzt werden: wobei ŷ(t + 1|t) = Fy(t), P^(t + 1|t) = FP(t)FT + Q(9), und die KF-Verstärkung für den i-ten Beobachter (Ki) Ki = P^(t + 1|t)GT (Ri + GP^(t + 1|t)GT)–1(10) ist.

Die P(t+ 1)-Matrix ist die Kovarianzmatrix erster Ordnung von y(t + 1) und repräsentiert das Vertrauensniveau (d. h. das Niveau der Varianz des Mittelwertes) der Schätzung y(t + 1). Es ist einzusehen, dass P(t) auf der Grundlage der Formeln (8) und (9) rekursiv berechnet wird. Die Anfangswerte von y(0) und P(0) werden unter Verwendung einer sensorischen Eingabe bei dem Zeitfenster 0 bestimmt. D.h. jedes Mal, wenn ein neuer Track eingeführt wird, wird die nicht übereinstimmende Sensorbeobachtung für y(0) und eine heuristisch definierte Konstante für P(0) verwendet.

III. TLM-Modul

Wenn die Trackliste ({y1, y2, ..., yr}) 26a einmal erstellt ist, ist das bevorzugte System 10 ferner zum Überwachen der Lebensdauer jedes Tracks ausgebildet. D.h. das System 10 ist ausgebildet, um auf eine Beobachtung, die nicht irgendeinem der existierenden Tracks zugeordnet worden ist, einen neuen Track anzulegen, und kann bestimmen, ob ein existierender Track von der Liste 26a gestrichen werden soll. Dort, wo es bei aktiven Sicherheitsanwendungen einzusehen ist, dass Objekte häufig im Blickfeld (FOV) der Sensoren erscheinen oder dieses verlassen, erleichtert das TLM-Modul 26 die Beibehaltung eines genauen Zustandsvektors Y(t).

Bei der dargestellten Ausführungsform wird jedem Track yk eine Größe qk(t) zugeschrieben, um dessen Stärke zu bezeichnen. Wie in 4 gezeigt, beginnt ein bevorzugtes Verfahren zum "Track Life Management" bei einem Schritt 100, bei welchem der Wert qk(t) mit einer Rate (&lgr;) und bevorzugt mit einer exponentiellen Rate abnimmt. Die Werte qk(t) und &lgr; können in Bezug auf jeden Track konstant sein oder abhängig von den Trackeigenschaften variieren. Zum Beispiel können Tracks, die relativ periphere Objektbeobachtungen umfassen, eine geringere Stärke oder eine schnellere Abnehmerate zugeschrieben werden. Nach einem abgeschlossenen Kommunikationszyklus und bei einem Schritt 102 werden alle Beobachtungen mit Trackparametern (gemäß Teil II) verglichen, um mindestens eine übereinstimmende Beobachtung zu bestimmen.

Bei alternativen Schritten 104a und b wird der neue Wert q(t + 1) entweder mit einem minimalen Schwellenwert Tmin verglichen, falls eine übereinstimmende Beobachtung nicht bestimmt wurde (104a), oder er wird für jede Beobachtung um einen vorbestimmten Wert erhöht, falls eine übereinstimmende Beobachtung bestimmt wurde (104b). Dort wo keine übereinstimmende Beobachtung bestimmt wurde und der verringerte neue Wert geringer als Tmin ist, wird der Track bei einem Schritt 106a von der Liste entfernt, andernfalls kehrt das Verfahren zu Schritt 102 zurück. Wenn mindestens eine entsprechende Beobachtung bestimmt wurde, wird der erhöhte neue Wert q(t + 1) bei einem Schritt 106b mit einem Bestätigungsschwellenwert Tcon verglichen. Wenn q(t + 1) größer als Tcon ist, dann wird der Track in einem Schritt 108 bestätigt, andernfalls kehrt das Verfahren zu Schritt 102 zurück. Bevorzugt wird bei einem Schritt 104b der Zuwachs auf q(t + 1) durch q(t) begrenzt, was unabhängig von der Zahl der entsprechenden Beobachtungen gleichzeitige Abgangsmeldungen zur Folge hat.

Zusammengefasst ist ein erfindungsgemäßes Zielverfolgungs- und Sensorfusionssystem für die Verwendung mit einem Fahrzeug angepasst und zum Beobachten eines Zustands mindestens eines Objekts während eines Zyklus ausgebildet. Das System weist mehrere Sensoren und einen neuartigen Controller auf, der kommunikativ mit den Sensoren gekoppelt ist und zu einer genaueren Schätzung des Zustands auf der Grundlage einer Sensorfusion ausgebildet ist. Bei einer bevorzugten Ausführungsform wird ein Kalman-Filter verwendet, um eine fusionierte Schätzung des Objektortes zu produzieren. Der bevorzugte Controller ist ferner ausgebildet, um jede neue Sensorbeobachtung mit einem Track in einer Trackliste abzugleichen und den Track während eines nachfolgenden Zyklus aus der Trackliste zu entfernen, wenn eine übereinstimmende Beobachtung nicht bestimmt wird.


Anspruch[de]
Zielverfolgungs- und Sensorfusionssystem zum Schätzen eines Zustands mindestens eines Objekts, wobei das System umfasst:

einen ersten Sensor, der zum Bestimmen einer ersten Schätzung eines Zustands des Objekts ausgebildet ist;

einen zweiten Sensor, der zum Bestimmen einer zweiten Schätzung des Zustands ausgebildet ist; und

einen Controller, der kommunikativ mit den Sensoren gekoppelt ist und zum Bestimmen einer dritten Schätzung des Zustands ausgebildet ist, wobei die dritte Schätzung teilweise auf der ersten und der zweiten Schätzung beruht,

wobei jede der ersten und zweiten Schätzungen einen gemessenen Wert und eine Standardabweichung aufweist,

wobei die dritte Schätzung einen berechneten Wert und eine Standardabweichung präsentiert, die geringer ist als jede der ersten und zweiten Standardabweichungen.
System nach Anspruch 1, dadurch gekennzeichnet, dass der Controller zum Anwenden einer Kalman-Filterung (KF) ausgebildet ist, um die dritte Schätzung zu bestimmen. System nach Anspruch 1, dadurch gekennzeichnet, dass der erste oder zweite Sensor eine Detektionsart verwendet, die aus der Gruppe ausgewählt ist, die im Wesentlichen aus Radar, Sonar, Lidar, Videobildgebung und Ultraschallsensoren besteht. System nach Anspruch 1, dadurch gekennzeichnet, dass der erste oder zweite Sensor einen Datenprozessor aufweist, der zum Bestimmen einer ersten Schätzung eines zweiten Zustands des Objekts ausgebildet ist, wobei der erste Zustand die Objektentfernung relativ zu dem messenden Sensor ist und der zweite Zustand die zeitliche Entfernungsänderung des Objekts ist, die teilweise auf der Objektentfernung beruht. System nach Anspruch 1,

dadurch gekennzeichnet, dass

der erste Zustand der Azimutwinkel der Objektlage relativ zu dem messenden Sensor ist, und

der Controller ferner zum Schätzen der zeitlichen Azimutwinkeländerung ausgebildet ist, die teilweise auf dem Azimutwinkel beruht.
System nach Anspruch 1,

dadurch gekennzeichnet, dass

der erste Sensor zum Bestimmen erster Schätzungen mehrerer Objektzustände ausgebildet ist,

der zweite Sensor zum Bestimmen zweiter Schätzungen der mehreren Zustände ausgebildet ist,

der Controller ferner zum Bestimmen dritter Schätzungen der mehreren Zustände ausgebildet ist, wobei die dritten Schätzungen teilweise auf den entsprechenden ersten und zweiten Schätzungen beruhen, und

der Controller ferner zum Erzeugen eines fusionierten Tracks ausgebildet ist, der auf den dritten Schätzungen beruht.
Zielverfolgungs- und Sensorfusionssystem zum genaueren Schätzen des Ortes eines Objekts über mehrere Zyklen, wobei das System umfasst:

einen ersten und zweiten Sensor, die zum Bestimmen separater erster und zweiter Sensorschätzungen des Objektortes während jedes Zyklus ausgebildet sind, wobei jede der ersten und zweiten Schätzungen einen gemessenen Wert und eine Standardabweichung aufweist; und

einen Controller, der kommunikativ mit den Sensoren gekoppelt ist und zum Bestimmen einer dritten Schätzung des Objektortes während eines Zyklus ausgebildet ist, wobei die dritte Schätzung teilweise auf den ersten und zweiten Sensorschätzungen beruht und einen berechneten Wert sowie eine Standardabweichung präsentiert, die geringer als jede der ersten und zweiten Standardabweichungen ist,

wobei der Controller ferner ausgebildet ist, um die dritte Schätzung mit einem Track in einer Trackliste abzugleichen, eine zukünftige Lage des Objekts auf der Grundlage der dritten Schätzung zu projizieren und den Track während eines nachfolgenden Zyklus aus der Trackliste zu entfernen, wenn keine Sensorschätzung mit der projizierten zukünftigen Schätzung übereinstimmt.
Computerprogramm zum Ausführen durch mindestens ein elektronisches Gerät, das mehreren Sensoren zugeordnet ist, wobei jeder der Sensoren zum Bestimmen mindestens eines Zustands mindestens eines Objekts ausgebildet ist und das Programm zum Empfangen von Anfangsschätzdaten des mindestens einen Zustands von den Sensoren und zum Anwenden eines Sensorfusionsalgorithmus auf die Anfangsschätzdaten ausgebildet ist, um eine Statusschätzung für den mindestens einen Zustand zu bestimmen, wobei die Statusschätzung eine höhere Wahrscheinlichkeit und eine geringere Standardabweichung als die Anfangsschätzdaten präsentiert. Programm nach Anspruch 8, dadurch gekennzeichnet, dass die Anfangs- und Statusschätzungen für mehrere Zustände bestimmt werden und die Statusschätzungen in einem Track (yk(t)) gespeichert werden. Programm nach Anspruch 9, dadurch gekennzeichnet, dass Anfangs- und Statusschätzungen für mehrere Zustände für mehrere Objekte bestimmt werden, um mehrere Tracks sowie einen Statusvektor (Y(t)) zu bestimmen, der die Tracks zu einer diskreten Zeit (t) umfasst. Programm nach Anspruch 9, dadurch gekennzeichnet, dass die mehreren Zustände mindestens einen zeitlichen Änderungszustand umfassen und jeder der Tracks an einem Zeitinkrement (t + 1) dynamisch modelliert wird, indem auf yk(t) ein Vektormultiplikator (F) angewendet wird, der einen konstanten zeitlichen Änderungszustand annimmt, und ein Vektor (vk) für weißes Gaußsches Rauschen addiert wird. Programm nach Anspruch 11, dadurch gekennzeichnet, dass Anfangs- und Statusschätzungen für mehrere Zustände, welche Objektentfernung (r), zeitliche Entfernungsänderung (ṙ), Azimutwinkel (&thgr;), und zeitliche Azimutwinkeländerung (&thgr;. ) umfassen, bestimmt werden und der modellierte Track (yk(t + 1)) gemäß der Formel bestimmt wird: yk(t + 1) = Fyk(t) + vk, wobei Programm nach Anspruch 9, dadurch gekennzeichnet, dass Statusschätzungen für mindestens ein neues Objekt bestimmt und mit yk(t) verglichen werden, um einen Differenzparameter für jeden der Zustände zu bestimmen. Programm nach Anspruch 13, dadurch gekennzeichnet, dass auf jeden der Differenzparameter eine Funktion angewendet wird, die auf den Eigenschaften des Sensors beruht, ferner jeder der Differenzparameter mit einem konstanten Koeffizienten multipliziert wird, der auf der Robustheit von einzelnen Sensormessungen beruht, und dann kombiniert wird, um einen Gütewert (Lk,i) zu bestimmen, wobei die Statusschätzungen des mindestens einen neuen Objekts yk(t) zugeordnet werden, wobei Lk,i nicht geringer als ein vorbestimmter Schwellenwert ist. Programm nach Anspruch 14, dadurch gekennzeichnet, dass die Funktion eine der Fuzzy-Logik zugehörige Funktion ist. Programm nach Anspruch 14, dadurch gekennzeichnet, dass die Funktion eine symmetrische Kernfunktion ist. Programm nach Anspruch 16, dadurch gekennzeichnet, dass die Funktion wobei hR einen auf den Eigenschaften des Sensors beruhenden Skalierungsfaktor bezeichnet. Programm nach Anspruch 17, dadurch gekennzeichnet, dass die Funktion eine Gaußsche Kernfunktion ist. Programm nach Anspruch 18, dadurch gekennzeichnet, dass die Funktion K(u) = exp(–u2) ist. Programm nach Anspruch 17, dadurch gekennzeichnet, dass die Funktion eine quadratische Kernfunktion ist. Programm nach Anspruch 20, dadurch gekennzeichnet, dass die Funktion Programm nach Anspruch 14, dadurch gekennzeichnet, dass mehrere Beobachtungen (Oi(t)) yk(t) zugeordnet werden und jede der Beobachtungen durch die Formel: Oi(t) = Gy(t) + wi definiert ist, wobei wi ein "3 mal 1"-Vektor für weißes Gaußsches Rauschen ist, der teilweise von der Genauigkeit des Sensorsystems abgeleitet ist, und die Beobachtungen kombiniert werden, um einen wahren Trackstatus zu bestimmen. Programm nach Anspruch 22, dadurch gekennzeichnet, dass die Beobachtungen unter Verwendung eines Kalman-Filters kombiniert werden, um den wahren Trackstatus zu bestimmen. Programm nach Anspruch 23, dadurch gekennzeichnet, dass der wahre Trackstatus gemäß der/den Formel(n) bestimmt wird: wobei ŷ(t + 1|t) = Fy(t). Programm nach Anspruch 24, dadurch gekennzeichnet, dass der wahre Trackstatus ferner gemäß der/den Kovarianzformel(n) bestimmt wird: wobei P^(t + 1|t) = FP(t)FT + Q. Programm nach Anspruch 24, dadurch gekennzeichnet, dass die KF-Verstärkung für den i-ten Beobachter (Ki) gemäß der folgenden Formel bestimmt wird: Ki = P^(t + 1|t)GT (Ri + GP^(t + 1|t)GT)–1. Programm nach Anspruch 10, dadurch gekennzeichnet, dass jedem der Tracks yk(t) eine Trackstärke (qk(t)) zugeordnet wird, wobei qk(t) = 1 bei Zuordnung einer Beobachtung zu dem Track, und jeder der Tracks yk(t) mit einer Rate (&lgr;) während einer nachfolgenden Periode abnimmt, wenn dem Track in der Periode keine Beobachtungen zugeordnet werden, und der Track yk(t) aus Y(t) entfernt wird, wenn qk(t) unter einen vorbestimmten minimalen Schwellenwert abfällt. Programm nach Anspruch 27, dadurch gekennzeichnet, dass ein erster Abschnitt der Tracks mit einer anderen Rate abnimmt als ein zweiter Abschnitt der Tracks.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com