PatentDe  


Dokumentenidentifikation DE69331407T2 19.09.2002
EP-Veröffentlichungsnummer 0590846
Titel Bildprozessor zur Detektion und Verfolgung von Zielen
Anmelder Lockheed Martin Corp., Bethesda, MD., US
Erfinder Sohie, Guy Rose Louis, Schenectady, New York 12303, US
Vertreter Mitscherlich & Partner, Patent- und Rechtsanwälte, 80331 München
DE-Aktenzeichen 69331407
Vertragsstaaten DE, FR, GB, IT
Sprache des Dokument EN
EP-Anmeldetag 21.09.1993
EP-Aktenzeichen 933074643
EP-Offenlegungsdatum 06.04.1994
EP date of grant 02.01.2002
Veröffentlichungstag im Patentblatt 19.09.2002
IPC-Hauptklasse G01S 13/72
IPC-Nebenklasse G01S 3/786   

Beschreibung[de]

Die Erfindung betrifft einen Bildprozessor für die Zielerfassung und -verfolgung, insbesondere für die Zielerfassung und -verfolgung bei mehreren Zielen.

Es tritt ein allgemeines Überwachungsproblem auf, wenn eine potentiell große Anzahl von Zielen auf der Basis von Messungen verfolgt wird, die aus einer potentiell großen Anzahl von Sensoren stammen, die weit voneinander entfernt sein können. Die Sensoren liefern Informationen zu Parametern über den Ort und die Ortsveränderung der Ziele an eine Stelle, die relativ zur Sensorposition zentral angeordnet ist. Diese Parameter können die Peilung, die Entfernung, die Peilungsrate, die Geschwindigkeit oder die Position enthalten. Die Messungen werden üblicherweise durch Zufallsrauschen und durch systematische deterministische Fehler beeinträchtigt, die beide variieren können.

Das Problem der Zielerfassung und -verfolgung bei mehreren Zielen und mit mehreren Sensoren wurde von mehreren Perspektiven aus angegangen, wie sie in "Multitarget, Multisensor tracking: Advanced Applications" von Y. Bar-Shalom, ed., veröffentlicht 1990 von Artech House, Inc. beschrieben sind. Ein Lösungsweg, der in "An Algorithm for Tracking Multiple Targets" von D.B. Reid, veröffentlicht in IEEE Transactions on Automatic Control, Band AC24, Nr. 6, Dezember 1979, beschrieben ist, besteht in der Anwendung einer Mehrfach- Hypothesen-Verfolgung. Bei der Mehrfach-Hypothesen-Verfolgung wird zunächst ein Zusammenhang zwischen den gesammelten Messungen und den potentiellen Zielen angenommen, und für jede Annahme, d. h. Hypothese, werden die Zielpositionen aktualisiert, wobei die in Rede stehenden Messungen als Eingangssignale für ein Filter, z. B. ein Kalman- Filter benutzt werden. Der resultierende Fehler zwischen der Messung und der gefilterten Spur wird dazu benutzt, jede Hypothese in eine Rangordnung einzureihen, und der Prozeß wird wiederholt, wenn neue Messungen gesammelt werden. In der Praxis zeigt sich, daß die Mehrfach-Hypothesen-Verfolgung zur Lösung des Problems der Zielerfassung und -verfolgung bei mehreren Zielen und mit mehreren Sensoren wegen der Vielzahl der Erfassungen, der Ungenauigkeit der Sensormessungen und der Möglichkeit von fehlerhaften Erfassungen, wie sie durch Mehrwege- oder andere deterministische und/oder Zufallseinflüsse verursacht werden, häufig schwierig zu handhaben ist.

Bei anderen Lösungswegen, wie der PDA-Filterung (PDA = Probabilistic Data Association) und der JPDA-Filterung (JPDA = Joint Probabilistic Data Association) werden die Sensormessungen in jedem Zeitpunkt nach der Wahrscheinlichkeit ihres Zusammenhangs kombiniert, um exzessive Bechenarbeit zu vermeiden. Die Wahrscheinlichkeit des Zusammenhangs kann nach spezifischen analytischen Ausdrücken mit geschlossener Form bestimmt werden, wie denen, die für das Kalman-Filter verwendet werden und in "Tracking in a Cluttered Environment with Probabilistic Data Association" von Y. Bar-Shalom und E. Tse, veröffentlicht in Automatica, Band 11, Seiten 451 bis 460 (1973) und in "Sonar Tracking of Multiple Targets Using Joint Probabilistic Data Association" von T. Fortmann, Y. Bar-Shalom und M. Scheffe, veröffentlicht in IEEE Journal of Oceanic Engineering, Band OE8, Nr. 3 (Juli 1983), beschrieben sind.

EP 0 482 521 A2 befaßt sich mit ähnlichen Problemen auf einem anderen technischen Gebiet. Sie bezieht sich insbesondere auf ein Fernsehkonferenzsystem zur Übertragung von Bildern der Gesichter von Menschen, die an einer Fernsehkonferenz teilnehmen. Das System dient zur automatischen Richtungsteuerung einer Fernsehkamera, die auf einem Kameradrehtisch in dem Fernsehkonferenzsystem angeordnet ist. Die Richtung der Aufnahmekamera wird automatisch so gesteuert, daß die Aufnahmekamera exakt so ausgerichtet ist, daß sie ein Bild einer Szene erzeugt, bei der das Bild der gewünschten Person im Zentrum des Bildes liegt.

Die obigen Lösungswege haben verschiedene Nachteile. Zunächst erfordert die Berechnung von Zusammenhangswahrscheinlichkeiten immer noch exzessive Rechenarbeit, wenn die Zahl der Messungen pro Zeitintervall groß ist. Außerdem zeigen diese sog. Kalman-Zielverfolger schlechtes Konvergenzverhalten, weil die Messungen typischerweise in einer nichtlinearen Beziehung zu den Zielparametern, wie Position oder Geschwindigkeit, stehen. Drittens leiden typische Anwendungen dieser Zielverfolger, z. B. bei dem Einsatz mit Sonar- oder elektromagnetischen Zielerfassungssignalen, unter den schlechten Ausbreitungsbedingungen in der Umgebung, die in Verbindung mit Mehrfachzielen die Verwendung von ungleichförmiger Wahrscheinlichkeit in den Erfassungswahrscheinlichkeiten erforderlich machen. Andererseits benötigt dieses Verfahren jedoch relativ einfach analytische Ausdrücke für die Wahrscheinlichkeitsverteilung oder Dichtefunktion. Somit besteht Bedarf an einem Lösungsweg für das Problem der Zielerfassung und -verfolgung bei mehreren Zielen und mit mehreren Sensoren, der die vorgenannten Probleme überwindet.

Die vorliegende Erfindung geht aus den Ansprüchen 1 und 1 l hervor.

Vorteilhafte Merkmale sind in den Unteransprüchen definiert.

Ein Merkmal der Erfindung besteht darin, einen Bildprozessor für die Verfolgung und Erfassung einer Mehrzahl von Zielen vorzusehen, der im Vergleich zu konventionelleren Mehrfachziel-, Mehrfachsensor-Zielverfolgern geringere Bechen- und Speicheranforderungen stellt.

Ein anderes Merkmal der Erfindung besteht darin, einen Bildprozessor für die Erfassung und Verfolgung einer Mehrzahl von Zielen vorzusehen, der gegenüber Ungenauigkeiten in den Zielerfassungssignalen weniger empfindlich ist als herkömmliche Zielverfolger.

Ein weiteres Merkmal der Erfindung besteht darin, einen Bildprozessor zur Erfassung und Verfolgung einer Mehrzahl von Zielen vorzusehen, der eine verbesserte Schätzgenauigkeit aufweist als traditionelle zeitsequentielle Lösungen für die Mehrfachziel-, Merfachsensor- Zielverfolgung.

Ein Bildprozessor für die Verwendung bei der Erfassung und Verfolgung einer Mehrzahl von Zielen umfaßt eine Mehrzahl von Speicherstellen für die Speicherung von Intensitätsbildern und einen mit den Speicherstellen verbundenen Signalprozessor. Der Signalprozessor besitzt ein Rückkopplungssystem mit geschlossener Schleife zur Erzeugung einer Mehrzahl von Intensitätsbildern für die Aktualisierung von extern hergeleiteten Referenz-Intensitätsbildern in Abhängigkeit von wenigstens einem extern hergeleiteten Datenbild, in welchem die Zielerfassungssignale verkörpert sind.

Die folgende detaillierte Beschreibung, die auf die anliegenden Zeichnungen Bezug nimmt, verdeutlicht die Erfindung sowohl bezüglich der Organisation als auch bezüglich des Betriebsverfahrens, sowie weitere Ziele und Vorteile der Erfindung.

Fig. 1 zeigt ein Blockdiagramm eines Ausführungsbeispiels eines Bildprozessors zur Zielerfassung und -verfolgung gemäß der Erfindung,

Fig. 1A zeigt ein Blockdiagramm eines Teils eines alternativen Ausführungsbeispiels eines Bildprozessors zur Zielerfassung und -verfolgung gemäß der Erfindung,

Fig. 2 zeigt ein Ausführungsbeispiel für ein Verfahren zur Erzeugung von komprimierten Intensitätsbildern gemäß der Erfindung,

Fig. 3 und 4 zeigen alternative Ausführungsbeispiele eines Verfahrens zur Erzeugung von komprimierten Intensitätsbildern gemäß der Erfindung,

Fig. 5 und 6 zeigen alternative Ausführungsbeispiele eines Prädiktionsfilters für den Einbau in einen Bildprozessor gemäß der Erfindung.

Es steht eine Mehrzahl von extern hergeleiteten Datenbildern zur Verfügung, die in einer Mehrzahl von Speicherstellen, wie den in Fig. 1 dargestellten Speicherstellen 400 gespeichert werden können. In dem speziellen Ausführungsbeispiel der Erfindung entspricht jedes Datenbild einer speziellen Zeit t&sub0;, t&sub1; ... tN-1, wobei t&sub0; typischerweise die Bezugszeit für die Mehrzahl von Datenbildern darstellt. Die Bezugszeit ist natürlich nicht auf to beschränkt und kann auch eine Zeit vor t&sub0;, nach tN-1 oder zwischen t&sub0; und tN-1sein. Die Bilder bestehen jeweils aus einem rechteckigen Array von Pixeln aus K Zeilen und L Spalten, die Intensitätswerte verkörpern, wobei jedes Pixel einer spezifischen Stelle in dem rechtwinkligen Array entspricht und den Intensitätswert l(k, l) hat. Es ist dem einschlägigen Fachmann geläufig, daß Intensitätswerte aus der Amplitude eines empfangenen Zielerfassungssignal oder aus einer anderen Information, wie Histogrammdaten, hergeleitet werden können. So enthält in dem vorliegenden Ausführungsbeispiel jedes Pixel die Zahl von Zielerfassungen, die in dem Zeitintervall ti-1 bis ti über der "Pixelfläche" aufgetreten sind.

Jedes Datenbild verkörpert Zielerfassungssignale, wie Vibrationsenergiesignale, die für eine Mehrzahl von Zielen von einer Mehrzahl von Sensoren empfangen werden. Es ist zu beachten, daß die Vibrationsenergiesignale verschiedene Formen haben können, z. B. elektromagnetische Signal oder Schallsignale sein können. Die Bilder können aus einer Anzahl von möglichen Quellen stammen, wie herkömmlichen Sonar- oder Radarsystemen, obwohl die Erfindung in dieser Hinsicht nicht beschränkt ist. Eine der möglichen Quellen für ein solches Datenbild, das empfangene Zielerfassungssignale für eine Mehrzahl von Zielen enthält, kann das Ausgangssignal eines phasengesteuerten Sonarsystems (Phased-Array-Sonarsystem) sein, das eine Korrelogramm-Zielinformation in dem oben beschriebenen digitalen Bildformat liefert. Der einschlägige Fachmann erkennt, daß alternativ auch Zielerfassungssignale empfangen werden können und dann in dieses digitale Bildformat umgewandelt werden.

In dem in Fig. 1 dargestellten Ausführungsbeispiel der Erfindung werden mehrere extern hergeleiteten Referenz-Intensitätsbildern in einer Mehrzahl von Speicherstellen 100 gespeichert. Jedes Referenzbild kann Anfangs-Zielerfassungssignale für wenigstens ein Ziel verkörpern. Diese Bilder können aus einer Anzahl von Quellen stammen, z. B. aus einer Aufklärungsinformation oder einer anderen Information, die den Ort und die Ortsveränderung des Ziels während eines bestimmten Zeitintervalls betrifft, oder alternativ aus der Verarbeitung eines abweichenden Satzes von Datenbildern für die gleichen Ziele unter Verwendung eines Ausführungsbeispiels eines Bildprozessors gemäß der Erfindung. Die Referenzbilder können auch mit im wesentlichen gleichförmigen Intensitätswerten initialisiert werden, die eine den Ort oder die Ortsveränderung der Ziele betreffende Information angeben, und ein Bildprozessor gemäß der Erfindung kann benutzt werden, um aus den gelieferten Datenbildern aktualisierte Referenzbilder zu extrahieren, wie dies weiter unten beschrieben wird.

Typischerweise sind jedem anfänglich identifizierten Ziel zwei Referenzbilder zugeordnet, nämlich ein Bild, das eine Information bezüglich des Ortes, z. B. der Position, enthält, und ein Bild, das eine Information bezüglich der Ortsveränderung, z. B. der Geschwindigkeit, enthält. Der einschlägige Fachmann erkennt, daß der Bereich der Erfindung nicht auf Bilder beschränkt ist, die eine Zielinformation in dieser speziellen Form enthalten. So können Bilder z. B. eine solche Information auch als Peilung und Entfernung enthalten.

In den speziellen Ausführungsbeispielen der Erfindung werden dem Signalprozessor 200 Referenzbilder zugeführt, die eine Information zur Position und zur Geschwindigkeit einer Mehrzahl von Zielen liefern, und zwar jeweils ein Bildpaar zu einer Zeit, d. h. auf einer Pro- Ziel-Basis. Der einschlägige Fachmann erkennt, daß der Signalprozessor 200 typischerweise einen digitalen Signalprozessor enthalten kann. Alternative Ausführungsbeispiele können einen Mikroprozessor, eine anwendungsspezifische integrierte Schaltung (ASIC), einen digitalen Universalcomputer, einen Massen-Parallelprozessor (MPP) oder einen Parallelprozessor anderer Art enthalten. Bei dem in Fig. 1 dargestellten Ausführungsbeispiel besitzt der Signalprozessor 200 ein Rückkopplungssystem mit geschlossener Schleife mit einem Simulationsfilter 210. Das Simulationsfilter 210 umfaßt ein Prädiktionsfilter 250, das ein Kalman- Prädiktionsfilter sein kann, und ein Sensor-Simulationsfilter 220. Das Rückkopplungssystem mit geschlossener Schleife in dem Signalprozessor 200 enthält ferner einen Bildgenerator 255 und ein Prädiktionsfilter 260, wie dies in Fig. 1 dargestellt ist. Der einschlägige Fachmann erkennt ferner, daß für die Prädiktionsfilter 250 und 260, für das Sensor-Simulationsfilter 220 und für den Bildgenerator 255 viele einschlägige Arithmetik-/Logikschaltungen verwendet werden können, die diese Bildprozessorelemente in die Lage versetzen, die weiter unten beschriebene Bildfilterung und Bildformung vorzunehmen.

Die Referenzbilder werden zunächst dem Prädiktionsfilter 250 in dem Signalprozessor 200 zugeführt. In Fällen, in denen die Mehrzahl von Speicherstellen 400 nur ein Datenbild enthält, projiziert oder prädiziert das Prädiktionsfilter 250 den Ort des Ziels nach Maßgabe der Referenzbilder für ein gegebenes Ziel für das Zeitintervall, das dem Zeitintervall entspricht, in welchem die in dem Datenbild eingelagerten empfangenen Zielerfassungssignale anzeigen, daß das Ziel erfaßt oder detektiert wurde. Man erkennt, daß diese Prädiktion relativ zu dem den Referenzbildern entsprechenden Zeitintervall entweder zeitlich vor- oder nacheilt. Wenn die Speicherstellen 400 in den Zeiten t&sub0; bis tN-1 eine Mehrzahl von Datenbildern enthalten, wobei t&sub0; in diesem speziellen Ausführungsbeispiel die Bezugszeit ist, prädiziert das Prädiktionsfilter 250 alternativ für jedes Zeitintervall von t&sub0; bis tN-1 den Ort eines gegebenen Ziels.

In einem Ausführungsbeispiel, in dem das Prädiktionsfilter ein herkömmliches Kalman-Prädiktionsfilter umfaßt, können die Position und die Geschwindigkeit der Ziele nach den folgenden Gleichungen prädiziert werden:

x(tn+1) = x(tn) + vx(tn) (tn+1 - tn)

y(tn+1) = y(tn) + vy(tn) (tn+1 - tn)

ux(tn+1) = ux(tn)

vy(tn+1) = vy(tn)

worin x(tn) die Position des Ziels zur Zeit tn in x-Richtung, z. B. entlang der Spalten k, bezeichnet, y(tn) die Position des Ziels zur Zeit tn in y-Richtung, z. B. entlang der Zeilen l, und vx und vy die Geschwindigkeit des Ziels in x- bzw. y-Richtung. In gleicher Weise werden die Covarianzen prädiziert durch:

rx(tn+1) = rx(tn) + 2(Δt)rx,vx(tn) + rvx(tn) (Δt)² + gx(Δt)²

rx,vx(tn+1) = rx,vx(tn) + rvx(tn) (Δt)

worin rx die Varianz der Zielposition in x-Richtung, rvx die Varianz der Zielgeschwindigkeit in x-Richtung, rx,vx die Covarianz zwischen der Zielposition und der Zielgeschwindigkeit und gx die "Innovations"-Varianz bezeichnet, die üblicherweise bei der Kalman-Filterung berechnet wird, um die zusätzliche Ungewißheit auszudrücken, die über die Zeitperiode Δt oder tn+1-tn eingeführt wird, wie dies in "Introduction to Discrete-Time Signal Processing", von Steven A. Tretter, veröffentlicht von John Wiley & Son, Inc. (1976), beschrieben ist. Wie der einschlägige Fachmann ohne weiteres erkennt, prädizieren ähnliche Ausdrücke die Covarianzen für die y-Richtung. Im Kontext der vorliegenden Erfindung kann für das Prädiktionsfilter 250 ein herkömmliches Kalman-Prädiktionsfilter sehr effektiv eingesetzt werden, wenn die Referenz-Intensitätsbilder als komprimierte Intensitätsbilder gespeichert sind, wie dies weiter unten beschrieben wird.

Ein alternatives Ausführungsbeispiel für ein Prädiktionsfilter gemäß der Erfindung ist folgendes. Wie in Fig. 5 dargestellt, kann ein prädiziertes oder projiziertes Intensitätsbild für eine Position eines Ziels, das z. B. aus Pixeln Pr,s besteht, konstruiert werden, indem das Referenzgeschwindigkeitsbild für dieses Ziel für jede Geschwindigkeit, z. B. Vk,l, abgetastet wird. Man erkennt, daß jedes Pixel Vk,l in einem Geschwindigkeits-Intensitätsbild, wie dem Referenzgeschwindigkeitsbild, zwei zueinander orthogonalen Geschwindigkeitskomponenten entspricht, die durch die horizontale bzw. vertikale Verschiebung des Pixels in dem Intensitätsbild repräsentiert wird. Das prädizierte Positionsbild für dieses Ziel wird konstruiert, indem zeitlich vorwärts oder rückwärts aus jedem Pixel in dem Referenzpositionsbild, z. B. Pm,n, zu der vorbestimmten oder prädizierten Zeit prädiziert wird und die Bildintensitäten akkumuliert werden, die durch Multiplizieren der entsprechenden Intensitätswerte in dem Positionsbild und dem Geschwindigkeitsbild für dieses Ziel erzeugt werden. Nach einer Normierung führt dies zu einem Zielpositionsbild in der prädizierten Zeit, das dem Positionsbild für dieses Ziel zu der Bezugszeit gleich ist.

Wenn die Speicherstellen 400 nur ein einziges Datenbild enthalten, prädiziert das Prädiktionsfilter 250 den Ort jedes Ziels wie oben beschrieben, und diese prädizierten Zielpositionsbilder werden dem Sensor-Simulationsfilter 220 zugeführt. Das Filter 220 summiert oder überlagert zunächst die von dem Filter 250 erzeugten prädizierten Bilder, z. B. mit Hilfe eines Addierers 230, um ein einziges Zielprädiktionsbild zu erzeugen, das die prädizierten Orte der Ziele während des Zeitintervalls repräsentiert, in welchem die empfangenen Zielerfassungssignale, die in das Datenbild eingearbeitet sind, angezeigt haben, daß die Ziele erfaßt oder detektiert wurden. Dieses Überlagerungsbild oder Zielprädiktionsbild wird dann einem Sensorfilter 240 zugeführt, um ein simuliertes Intensitätsbild des in den Speicherstellen 400 gespeicherten Datenbilds zu erzeugen.

Wie Fig. 1 zeigt, kann das simulierte Bild in einer Mehrzahl von Speicherstellen 300 gespeichert werden. Der einschlägige Fachmann erkennt jedoch, daß das simulierte Bild stattdessen auch von dem Sensorfilter 240 direkt an den Bildgenerator 255 geliefert werden kann, wie dies in Fig. 1 durch einen gestrichelten Pfeil angedeutet ist. Das Sensorfilter 240 simuliert den Effekt der Sensorumgebung, indem es die Wirkung reproduziert, die das Vorhandensein eines Ziels an einer bestimmten Stelle auf das Datenbild ausübt. Es werden hier keine Einzelheiten zu den Eigenschaften des Filters angegeben, da sie von dem speziellen Sensor, und den Auswirkungen der Mehrwegeübertragung, den akustischen Ausbreitungseigenschaften, Hintergrundstörungen usw. abhängen. Im vorliegenden speziellen Ausführungsbeispiel der Erfindung ist das Sensorfilter als ein Satz von Gewichtungskoeffizienten oder Gewichten 235 implementiert, die die Wirkung ausdrücken, die das Vorhandensein eines Ziels an einem Pixelort auf die Pixel in dem Zielpositionsbild hat. So drückt ein spezieller Gewichtungskoeffizient H(k, l; k', l') des Sensorfilters die Wirkung auf den synthetisierten oder simulierten Pixelwert in dem Pixel (k', l') aus, die durch das Vorhandensein eines Ziels in dem Pixel (k, l) gegeben ist. Das simulierte Bild kann durch eine Faltungsoperation des Zielprädiktionsbildes mit den Sensorfiltergewichten erzeugt werden. So wird für jedes Pixel (k', l') bestimmt, welche Pixel (k, l) des Zielpositionsbilds eine Wirkung ausüben. Dadurch wird bestimmt, welche Gewichte des Sensorfilters für die Aktualisierung des Pixels (k', l') benutzt werden. Auf diese Weise werden die simulierten Intensitäten durch eine Multiplizier- und Akkumulieroperation gewonnen. Wie in Fig. 1 schraffiert dargestellt ist, können die extern hergeleiteten Sensorfiltergewichte periodisch aktualisiert werden, wenn sich die Eigenschaften des Mediums, z. B. über die Zeit, ändern. Das Sensorfilter kann auch entweder einen Simulationsausdruck oder einen analytischen Ausdruck für solche Auswirkungen der Umgebung auf das Filter aufweisen.

Es wird dann ein simuliertes Bild für die Speicherung in den Speicherstellen 400 erzeugt und dem Bildgeneratorteil 255 des Signalprozessors 200 zugeführt, der die Bilderzeugung vornimmt. Letztlich werden die von dem Prädiktionsfilter 250 gelieferten prädizierten Bilder, ferner das in den Speicherstellen 300 gespeicherte simulierte Bild und das in den Speicherstellen 400 gespeicherte Datenbild von dem Signalprozessor 200 kombiniert. Im vorliegenden Ausführungsbeispiel der Erfindung werden jedoch einige Schritte durchgeführt, bevor eine solche Bildgenerierung oder -erzeugung stattfindet. Zunächst wird in einem Bildkomparator 280 ein Bildvergleich durchgeführt, um das simulierte Bild mit dem Datenbild zu vergleichen, um festzustellen, ob das simulierte Bild in Richtung auf das Datenbild konvergiert. Es gibt verschiedene Verfahren, um die Konvergenz zwischen Intensitätsbildern festzustellen. Üblicherweise werden die Bilder auf einer Pixel-für-Pixel-Basis miteinander verglichen.

Bei einem Lösungsweg können die Differenzen in den entsprechenden Pixelintensitätswerten summiert werden, und die Summe kann mit einer vorbestimmten Größe verglichen werden. Alternativ können die Differenzen der entsprechenden Pixelintensitätswerte quadriert werden, und die Summe der Quadrate kann mit einem vorbestimmten Betrag verglichen werden. Es kann auch die Magnitude der Differenz derr entsprechenden Pixelintensitätswerte auf einer Pixel-für-Pixel-Basis mit einer vorbestimmten Größe verglichen werden. Nach einer anderen Alternative kann die Differenz der entsprechenden Pixelintensitätswerte auf einer Pixel-für-Pixel-Basis quadriert und mit einer vorbestimmten Größe vergleichen werden. Dem einschlägigen Fachmann stehen zahlreiche weitere Verfahren zur Feststellung der Konvergenz zur Verfügung, und die Erfindung ist nicht auf die aufgezählten Verfahren beschränkt. Wenn das simulierte Bild nicht nach dem Datenbild konvergiert hat, erzeugt der Bildgenerator 255 zusätzliche Bilder.

Ein Bildkombinierer 270 konstruiert oder erzeugt auf der Basis des oben beschriebenen Vergleichs zwischen dem simulierten Bild und dem Datenbild eine Mehrzahl von kombinierten Bildern. In einem Ausführungsbeispiel der Erfindung werden eine Mehrzahl von kombinierten Bildern nach der folgenden Gleichung erzeugt:

Ck = Pk · Dk/Sk

worin Ck, Pk, Dk und Sk die Bildintensitäten von entsprechenden Pixeln des von dem Bildgenerator erzeugten kombinierten Bilds, des speziellen prädizierten Bilds, des Datenbilds bzw. des simulierten Bilds bedeuten. Man erkennt, daß zur Vereinfachung der Bildfilterung und Bilderzeugung die Intensitäten in logarithmischer Form gespeichert oder verarbeitet werden können und bei Bedarf aus dieser Form konvertiert werden können. Es ist außerdem erkennbar, daß die Bilder auch nach mehreren anderen Gleichungen kombiniert werden können, die so gewählt sind, daß sie die Differenzen zwischen dem Datenbild und dem simulierten Bild wiedergeben, und diese Differenzen als Korrektur an die einzelnen prädizierten Bilder auszugeben, wie z. B. eine Funktion von Dk/Sk, die durch f(Dk/Sk) gegeben ist, oder von Dk - Sk, die durch f(Dk/Sk) gegeben ist, oder eine Kombination von diesen. Eine alternative Gleichung könnte z. B. Ck = Pk + Dk - Sk sein.

Sobald die kombinierten Bilder in der beschriebenen Weise gebildet oder erzeugt sind, werden sie dem Prädiktionsfilter 260 zugeführt, um den zeitlich hinter oder vor der Bezugszeit liegenden Ort der Ziele zu prädizieren oder zu projektieren und aktualisierte Referenzbilder zu erzeugen. Der einschlägige Fachmann erkennt, daß das Prädiktionsfilter 260 ein Kalman- Prädiktionsfilter enthalten kann, wie dies oben auch für das Prädiktionsfilter 250 beschrieben wurde. Alternativ kann für das Prädiktionsfilter ein ähnliches Verfahren benutzt werden, wie es oben für das Prädiktionsfilter 250 beschrieben wurde, um ein Bild der Zielposition und ein Bild der Zielgeschwindigkeit für die Erzeugung eines prädizierten Zielpositionsbilds für die Bezugszeit zu verwenden, das ein aktualisiertes Referenzbild darstellt. Die Referenzbilder in den Speicherstellen 100 werden dann durch die aktualisierten Referenzbilder ersetzt. Für den Fall, daß die Speicherstellen 400 nur ein einziges Datenbild enthalten, können die Referenzgeschwindigkeitsbilder für jedes Ziel aktualisiert werden, indem das kombinierte Zielpositionsbild und das entsprechende Referenzpositionsbild für dieses Ziel aktualisiert werden, um ein aktualisiertes Referenzgeschwindigkeitsbild für das Ziel zu erzeugen. Wie weiter unten in Verbindung mit einer Mehrzahl von Datenbildern beschrieben wird, kann eine Mehrzahl von kombinierten Bildern für ein Ziel gefiltert werden, um ein aktualisiertes Referenzgeschwindigkeitsbild für dieses Ziel zu erzeugen. Alternativ können die Prädiktionsfilter weggelassen werden, wenn nur ein einziges Datenbild involviert ist, wie dies weiter unten beschrieben wird.

Nachdem die Referenzbilder aktualisiert wurden, wird der oben beschriebene Rückkopplungsprozeß für die Erzeugung eines simulierten Bilds wiederholt. Falls keine Konvergenz eingetreten ist, werden die Referenzbilder erneut aktualisiert. Der einschlägige Fachmann erkennt, daß auf diese Weise der Signalprozessor 200 ein Rückkopplungssystem mit geschlossener Schleife bildet, um aus den aktualisierten Referenzbildern ein simuliertes Bild zu erzeugen, bis das simulierte Bild nach dem Datenbild konvergiert.

Ein weiterer Aspekt der Funktion dieses Rückkopplungssystems ergibt sich nach der Konvergenz zwischen dem in den Speicherstellen 400 gespeicherten Datenbild und dem in den Speicherstellen 300 gespeicherten simulierten Bild. Wenn Konvergenz eingetreten ist, werden die Differenzen zwischen dem Datenbild und dem simulierten Bild gefiltert, im vorliegenden Ausführungsbeispiel z. B. Dk - Sk, die als Reste bezeichnet werden. Insbesondere sollten die Reste hinreichend gleichförmig sein mit einer genügend kleinen Amplitude, etwa in der Größenordnung eines Vielfachen des Quantisierungsrauschens, um anzuzeigen, daß alle Ziele detektiert worden sind. Wenn Konvergenz eingetreten ist, die Reste jedoch nicht gleichförmig sind oder eine exzessiv große Amplitude haben, deutet dies darauf hin, daß in dem Datenbild wahrscheinlich ein noch unidentifiziertes Ziel vorhanden ist. Im vorliegenden speziellen Ausführungsbeispiel der Erfindung werden die Reste oder ihre Logarithmen, wie oben beschrieben, summiert und mit einer vorbestimmten Größe verglichen. Wenn die Summe einen vorbestimmten Wert übersteigt, kann ein neues oder ein zusätzliches Zielbild von einem Neuzielbildgenerator 290 in Fig. 1 erzeugt werden.

Zum Filtern der Reste und zur Bildung eines zusätzlichen Zielbilds stehen mehrere Verfahren zur Verfügung. Eines dieser Verfahren besteht darin, die Reste für die Zeilen- und Spaltenpixelorte mit der mittleren Intensität in dem Bild und für die Varianz in diesen Zeilen- und Spaltenpixelorten zu filtern und ein zweidimensionales Intensitätsbild mit Gaußscher Verteilung zu konstruieren, das im wesentlichen die gleichen Zeilen- und Spaltenpixelwerte für den Mittelwert und die Varianz aufweist. Nach einem anderen Verfahren kann das Bild "schwellwertbewertet" werden, um Scheitel- oder Spitzenwerte in dem Bild zu identifizieren, bevor die oben beschriebene Filterung durchgeführt wird. Wie in Fig. 1 dargestellt, wird das neue oder zusätzliche Zielbild dann dem Prädiktionsfilter 260 zugeführt, das eine zeitlich Rückwärts- oder Vorwärtsprädiktion durchführt, um ein Referenzbild für die Bezugszeit zu erzeugen, das dem neu identifizierten Ziel entspricht. Im vorliegenden Fall, in dem die Speicherstellen 400 ein einziges Datenbild enthalten, kann sich für eine solche Prädiktion ein im wesentlichen gleichförmiges Zielgeschwindigkeitsbild als ausreichend erweisen.

Man erkennt nun, daß jetzt auf der Basis der vorherigen Mehrzahl von Referenzbildern und der zusätzlichen Positions- und Geschwindigkeitsreferenzbilder für das neu identifizierte Ziel ein weiteres simuliertes Bild konstruiert wird. Die Bildfilterung und -erzeugung wird wieder solange durchgeführt, bis Konvergenz eintritt. Wenn Konvergenz erreicht ist und die Reste hinreichend gleichförmig oder hinreichend klein sind, um anzuzeigen, daß alle Ziele identifiziert wurden, ist die Verarbeitung der Datenbilder abgeschlossen.

In Fällen, in denen die Speicherstellen 400 eine Mehrzahl von Datenbildern enthalten, arbeitet das in Fig. 1 dar gestellte Ausführungsbeispiel des Bildprozessors im wesentlichen in der gleichen Weise wie oben beschrieben. Während der den einzelnen Datenbildern entsprechenden Zeitintervalle prädiziert das Prädiktionsfilter 250 den Ort des Ziels in einem vorgegebenen Referenzbild. So erzeugt das Filter 250 für jedes Ziel und für jedes Zeitintervall ein prädiziertes Bild. Diese Bilder werden dem Filter 220 zugeführt, in dem die den Zielen entsprechenden prädizierten Bilder für jedes Zeitintervall, wie durch den Addierer 230 angedeutet, überlagert oder summiert und dann mit dem Sensorfilter 240 gefaltet werden, um mehrere simulierte Bilder zu erzeugen, wobei jedem Datenbild ein simuliertes Bild entspricht.

Jedes simulierte Bild wird dann mit seinem korrespondierenden Datenbild verglichen, um festzustellen, ob Konvergenz eingetreten ist. Wie oben beschrieben wurde, hängt die Feststellung der Konvergenz von dem verwendeten speziellen Verfahren ab. Es sollten jedoch alle simulierten Bilder Konvergenz zeigen, um den Rückschluß ziehen zu können, daß Konvergenz eingetreten ist. Wenn keine Konvergenz eingetreten hat, wird erneut in der oben beschriebenen Weise eine Mehrzahl von kombinierten Bildern konstruiert. Auf diese Weise wird für jedes Ziel für die den einzelnen Datenbildern entsprechenden Zeitintervalle ein kombiniertes Bild erzeugt. Alle kombinierten Bilder für ein gegebenes Ziel, die den Zeitintervallen entsprechen, werden dem Prädiktionsfilter 260 zugeführt, das eine Projektion auf die Zeit nach oder vor der Bezugszeit durchführt, um ein einziges aktualisiertes Referenzpositionsbild für das Ziel zu erzeugen. Dies geschieht dadurch, daß die kombinierten Bilder zunächst gefiltert werden, um ein aktualisiertes Referenzgeschwindigkeitsbild für das Ziel zu erzeugen. Wie in Fig. 6 dargestellt, werden zunächst aus zwei verschiedenen Positionsintensitätsbildern für das gleiche Ziel Histogramme für jede Geschwindigkeit konstruiert oder kompiliert. Das Geschwindigkeitshistogramm wird dadurch erzeugt, daß eine hypothetische Geschwindigkeit Vk,l zwischen jedem Pixelpaar Pr,s und Pm,n in den betreffenden Zielpositionsbildern erzeugt wird und dieser Geschwindigkeit das Produkt der Bildintensitäten für diese Pixel in den Positionsbildern zugewiesen wird. So liefern diese Histogramme die Geschwindigkeit des Ziels zur Bezugszeit, wobei angenommen wird, daß die Zielgeschwindigkeit über die relevante Zeitperiode konstant ist. Dies wird zwischen verschiedenen Paaren von Zielpositionsbildern durchgeführt, wobei die den entsprechenden Geschwindigkeiten zugeteilten Intensitäten summiert werden. Falls irgendwelche Bilder mit einer Geschwindigkeitsinformation, wie einem Referenz-Zielgeschwindigkeitsbild, z. B. von externen Zielerfassungssystemen, wie Radar- oder Sonarsystemen, erzeugt werden, werden die Intensitätswerte für jede Geschwindigkeit ebenfalls summiert. Nach dem Summieren der Intensitäten für jede Geschwindigkeit wird das Bild normiert. Dann wird jedes kombinierte Bild für das Ziel, wie oben beschrieben, auf die Zeit nach oder vor der Bezugszeit projiziert, und diese Bilder werden überlagert und normiert, um das aktualisierte Referenzpositionsbild zu gewinnen.

Dieser Prozeß der Bildfilterung, Bilderzeugung und Referenzbildaktualisierung wird wiederholt, bis Konvergenz eintritt. In diesem Punkt werden nach der Entfernung der jeweiligen entsprechenden Datenbilder die Reste jedes der simulierten Bilder in der oben beschriebenen Weise bewertet, um festzustellen, ob zusätzliche Zielbilder erzeugt oder konstruiert werden sollen. Falls diese Bilder erzeugt werden, wird der Prozeß der Filterung und Bilderzeugung, wie oben beschrieben, wiederholt, bis wiederum Konvergenz eintritt und bis die Reste eine im wesentlichen gleichförmige Verteilung oder hinreichend kleine Amplituden aufweisen.

Für den Fall, daß die Speicherstellen 400 eine Mehrzahl von Datenbildern enthalten, können zusätzliche Referenzbilder für ein neu identifiziertes Ziel nach einer von mehreren Möglichkeiten erzeugt werden. Jedes simulierte Bild, das einem der gespeicherten Datenbilder entspricht, kann von dem entsprechenden Datenbild entfernt werden, um einen Satz von Restbildern zu erzeugen, wobei jedem Datenbild ein Restbild entspricht. Bei einem in Fig. 1 nicht dargestellten Lösungsweg kann jedes der Restbilder von dem Prädiktionsfilter 260 auf die Zeit entweder vor oder nach der Bezugszeit so projiziert werden, daß es mit den Referenzbildern korrespondiert. An diesem Punkt können zur Erzeugung eines Positionsbilds für das neu identifizierte Ziel die Restbilder für die Zeilen- und Spaltenpixelorte für die mittlere Intensität und für die Varianz in diesen Zeilen- und Spaltenpixelorten überlagert, normiert und gefiltert werden, wie dies oben beschrieben wurde. Alternativ kann eines der Restbilder ausgewählt werden, z. B. das Restbild mit den wenigsten gleichförmigen Resten oder den Resten mit der größten Intensität, und aus den Resten kann mit Hilfe des Neuziel-Bildgenerators 290 ein Zielpositionsbild erzeugt werden. Ein Zielgeschwindigkeitsbild für das neu identifizierte Ziel kann erzeugt werden, indem zunächst, z. B. nach dem in Verbindung mit Fig. 6 beschriebenen Verfahren, aus den in den Speicherstellen 400 gespeicherten Datenbildern ein Geschwindigkeitsbild für die Mehrzahl von Zielen erzeugt wird. Dann können die Reste, die nach der Entfernung der einzelnen Referenzgeschwindigkeitsbildern aus dem mit den Datenbildern erzeugten Geschwindigkeitsbild verbleiben, durch eines der hier beschriebenen Verfahren gefiltert werden, um ein Geschwindigkeitsbild für das neu identifizierte Ziel zu erzeugen. Diese Zielpositions- und Geschwindigkeitsbilder können dann dem Prädiktionsfilter 260 zugeführt werden, um zusätzliche Referenzbilder für die Mehrzahl von Referenzbildern, die in den Speicherstellen 100 gespeichert sind, zu erzeugen.

Fig. 1A zeigt ein alternatives Ausführungsbeispiel eines Bildprozessors für die Zielerfassung und -verfolgung gemäß der Erfindung. Das in Fig. 1A dargestellte Ausführungsbeispiel ist im wesentlichen mit dem Ausführungsbeispiel von Fig. 1 identisch mit der Ausnahme, daß die mit dem Signalprozessor 200 von Fig. 1 verbundenen Speicherplätze 100 durch eine Zieldatenbank 500 ersetzt sind, die Speicherstellen zum Speichern von Zielpositions- und Zielgeschwindigkeits-Intensitätsbildern aufweist. Für jedes der in den Speicherstellen 100 von Fig. 1 gespeicherten Referenzbilder ist in der Zieldatenbank 500 ein entsprechendes komprimiertes Intensitätsbild gespeichert. Fig. 1A zeigt ferner einen Signalprozessor 510 zum Dekomprimieren des Bildes, bevor es dem Prädiktionsfilter 250 zugeführt wird, und einen Signalprozessor 520 zum Komprimieren des Bildes, nachdem es von dem Prädiktionsfilter 260 erzeugt wurde.

Im Zusammenhang mit der vorliegenden Erfindung werden die digitalen Intensitätsbilder nach der folgenden Methode gefiltert, um die erforderliche Speicherkapazität zu verringern. Die zu filternden oder zu komprimierenden Intensitätsbilder bestehen aus K · L Pixeln, die in K Zeilen und L Spalten von abgetasteten Intensitätswerten angeordnet sind, wobei die einzelnen abgetasteten Intensitätswerte mit l(l, k) bezeichnet sind, worin l und k dem Zeilen- bzw. dem Spaltenort des abgetasteten Intensitätswerts entsprechen. Das Verfahren umfaßt die Verfahrensschritte: Übertragen der abgetasteten Intensitätswerte l(k, l) zu einer Signalfiltervorrichtung, z. B. einem digitalen Signalprozessor, Filtern der abgetasteten Intensitätswerte in der Signalfiltervorrichtung, um wenigstens vier Pixelwerte zu erzeugen, die ein komprimiertes digitales Intensitätsbild liefern, und Speichern der vier durch Filterung erzeugten Pixelwerte in Speicherstellen. Der Verfahrensschritt des Filtern der abgetasteten Intensitätswerte umfaßt die Verfahrensschritte: Filtern der abgetasteten Intensitätswerte, um einen Schätzwert des Zeilenpixelorts zu erzeugen, der dem Mittelwert der abgetasteten Intensitätswerte entspricht, sowie einen Schätzwert der Varianz des Pixelorts, und Filtern der abgetasteten Intensitätswerte, um einen Schätzwert des Spaltenpixelorts zu erzeugen, der dem Mittelwert der abgetasteten Intensitätswerte entspricht, sowie einen Schätzwert der Varianz dieses Pixelorts. Alternativ kann der Verfahrensschritt des Filterns der abgetasteten Intensitätswerte folgende Verfahrensschritte umfassen: Filtern der abgetasteten Intensitätswerte, um Schätzwerte des Zeilenpixelorts mit der maximalen Intensität und dem in Pixeln angegebenen Abstand von Intensitätswerten mit x% dieser maximalen Intensität von dem genannten Ort zu erzeugen, wobei x zwischen 0 und einschließlich 100 liegt, und Filtern der abgetasteten Intensitätswerte, um Schätzwerte des Spaltenpixelorts mit der maximalen Intensität und den in Pixeln angegebenen Abstand von Intensitätswerten mit y% dieser maximalen Intensität von dem genannten Ort zu erzeugen, wobei y zwischen 0 und einschließlich 100 liegt. Der Mittelwert und die Schätzwerte K, L und die Varianzschätzwerte SK, SL werden typischerweise nach den folgenden Gleichungen berechnet:

Ein Ausführungsbeispiel dieses Verfahrens zum Filtern eines digitalen Intensitätsbilds ist in Fig. 2 dargestellt. Alternativ werden das Maximum und die Ausdehnung der Zeilen- und Spaltenpixelwerte, wie oben beschrieben, dadurch bestimmt, daß zunächst der größte Intensitätswert in dem Bild ausgewählt wird, der durch Pixelwerte K, L bezeichnet wird, und dann um diese ein "Fenster" konstruiert wird, wobei die Hälfte des größten Abstands zwischen Pixeln in dem Bild verwendet wird, die einem vorbestimmten Prozentsatz der maximalen Intensität entsprechen und durch Pixelwerte SK, SL bezeichnet werden. Dies ist in Fig. 3 dargestellt. In einem alternativen Ausführungsbeispiel des Verfahrens zum Filtern oder Komprimieren von Bildern kann man die lokalen Maxima in dem Bild auswählen und dann wird wieder ein Fenster um jedes Maximum konstruieren, indem das Bild auf diejenigen Werte "schwellwertbewertet" wird, die zumindest einem vorbestimmten Prozentsatz des Maximums entsprechen, wie dies in Fig. 4 dargestellt ist, wo diese Werte mit ( &sub1;, &sub1;), ( &sub2;, &sub2;), ( K1, L1) und ( K2, L2) bezeichnet sind. Schließlich werden die übrigen Pixel in jedem der Fenster, die den lokalen Maxima entsprechen, dazu benutzt, den Mittelwert und die Varianz der Zeilen- und Spalten-Pixelstellen für dieses Fenster nach dem Verfahren zu berechnen, das zuvor auf ein komplettes Intensitätsbild angewendet wurde. Sobald das Bild gefiltert ist, werden der Mittelwert und die Varianz der Zeilen- und Spalten-Pixelschätzwerte für jedes Fenster gespeichert. Alternativ werden das Maximum und der Bereich der Spalten- und Zeilen-Pixelwerte gespeichert. Das gleiche Filterungsverfahren kann auf Zielgeschwindigkeitsbilder sowie auf Zielpositionsbilder angewendet werden.

Sobald die Bilder komprimiert sind, findet eine Rekonstruktion oder Dekomprimierung statt, indem die durch Filterung erzeugten Pixelwerte, die gespeichert wurden, einem Bildgenerator zugeführt werden und mit dem Bildgenerator ein digitales Bild erzeugt wird, das aus K Spalten und L Zeilen von Pixeln besteht, so daß man ein komprimiertes Intensitätsbild erhält, das den durch Filterung erzeugten Pixelwerten entspricht. Wenn die gespeicherten Pixelwerte der Mittelwert und die Varianz der Zeilen- und Spalten-Pixelschätzwerte sind, umfaßt die Bilderzeugung das Konstruieren eines zweidimensionalen Intensitätsbilds mit Gaußscher Verteilung, das den gleichen Mittelwert und die gleiche Varianz hat. Wenn die gespeicherten Werte das Maximum und die Ausdehnung der Pixelwerte sind, kann alternativ ein zweidimensionales gleichförmiges Intensitätsbild mit dem gleichen Maximum und der gleichen Ausdehnung erzeugt werden.

Der einschlägige Fachmann erkennt nun, daß die Bildkomprimierung und -dekomprimierung an verschiedenen Stellen in dem Signalprozessor 200 stattfinden können, die von den in Fig. 1A dargestellten abweichen. Im wesentlichen kann jede Signalverarbeitung, die auf einer Pro-Ziel-Basis stattfindet, wie dies in Fig. 1 dargestellt ist, komprimiert und dekomprimiert werden, um die Recheneffizienz zu verbessern und den Speicheraufwand zu reduzieren. Aufgrund ihrer Natur bringt die Bildkomprimierung und -dekomprimierung, wie oben beschrieben, unvermeidlich Fehler in das dekomprimierte oder rekonstruierte Bild ein. Allerdings hat sich herausgestellt, daß die eingebrachten Fehler im Zusammenhang mit der vorliegenden Erfindung die Leistung des Bildprozessors nicht wesentlich beeinträchtigen. Somit wird nun erkennbar, daß die Verarbeitung eines oder mehrerer Datenbilder gemäß der Erfindung zur Erzeugung von aktualisierten Referenzbildern mit komprimierten Intensitätsbildern statt mit vollständigen Referenzintentsitätsbildern beginnen kann. Es ist ferner erkennbar, daß durch die Benutzung eines Kalman-Prädiktionsfilters als Prädiktionsfilter 250 und 260 in Kombination mit der oben beschriebenen Bildkomprimierung und -dekomprimierung die Recheneffizienz erhöht wird. Wie oben beschrieben, macht es die komprimierte Natur der Zielinformation besonders bequem, die oben diskutierten Kalman-Filter-Prädiktionsgleichungen anzuwenden.

Vorangehend wurden nur gewisse Merkmale der Erfindung dargestellt und beschrieben. Der einschlägige Fachmann ist ohne weiteres in der Lage, zahlreiche Modifizierungen, Substituierungen, Änderungen und Äquivalente zu benutzen. Ein alternatives Ausführungsbeispiel der Erfindung kann z. B. das Filter 220 und den Bildgenerator 255 ohne die Filter 250 und 260 enthalten. Ein solches Ausführungsbeispiel kann sich als zufriedenstellend erweisen, wenn der Bezugszeit ein einziges Datenbild entspricht, so daß man für eine zufriedenstellende Leistung keine Vorwärts- oder Rückwärts-Prädiktion benötigt. Dieses Ausführungsbeispiel arbeitet in der oben beschriebenen Weise, mit der Ausnahme, daß die Referenzbilder für diejenigen Schritte des früheren Ausführungsbeispiels benutzt werden, die die prädizierten Bilder betreffen. Zur Verbesserung der Recheneffizienz kann außerdem ein erheblicher Teil der Bildverarbeitung parallel ausgeführt werden. Die Verarbeitung von Bildpixeln gemäß der Erfindung kann z. B. durch parallele Prozessoren ausgeführt werden, wobei jeder Prozessor bestimmten Pixelorten speziell zugeordnet ist.


Anspruch[de]

1. Bildprozessor zur Erzeugung von aktualisierten Intensitätsbildern für die Verwendung bei der Erfassung und Verfolgung einer Mehrzahl von Zielen

mit einer ersten und einer zweiten Mehrzahl von Speicherstellen (100 bzw. 400) für die Speicherung von Intensitätsbildern und

mit einem Signalprozessor (200) zur Erzeugung von aktualisierten Intensitätsbildern nach Maßgabe einer Mehrzahl von extern abgeleiteten Intensitätsbildern, wobei dieser Signalprozessor (200) mit der ersten (100) und der zweiten (400) Mehrzahl von Speicherstellen verbunden ist, die extern abgeleiteten Intensitätsbilder eine Mehrzahl von Referenzbildern enthalten, die erste (100) Mehrzahl von Speicherstellen für die Speicherung der genannten Referenzbilder ausgebildet sind, jeweilige Paare der Referenzbilder eine Information über den Ort und die Ortsveränderung wenigstens eines der Ziele während eines vorbestimmten Zeitintervalls enthalten und die extern abgeleiteten Intensitätsbilder wenigstens eine Information enthalten, das empfangene Zielerfassungssignale beinhaltet, die eine Information über die Orte der genannten Ziele während eines speziellen Zeitintervalls relativ zu dem genannten vorbestimmten Zeitintervalls liefern, und wobei die Speicherstellen der zweiten Mehrzahl von Speicherstellen (400) für die Speicherung wenigstens eines Intensitätsbildes ausgebildet sind,

wobei der Signalprozessor (200) ein System mit geschlossener Rückkopplungsschleife aufweist zur Lieferung einer Mehrzahl von Bildern für die Aktualisierung der Referenzbilder nach Maßgabe des genannten wenigstens einen Intensitätsbildes,

wobei das System aufweist:

ein erstes Filter (210) zur Erzeugung eines simulierten Bildes des wenigstens einen Intensitätsbildes nach Maßgabe der Mehrzahl von Referenzbildern und

einen Bildgenerator (155) zur Erzeugung einer Mehrzahl von kombinierten Bildern für die Aktualisierung der Referenzbilder durch Kombinieren des simulierten Bildes mit dem wenigstens einen Intensitätsbild.

2. Bildprozessor nach Anspruch 1,

gekennzeichnet durch

ein zweites Filter (260) zur Lieferung einer Mehrzahl von Bildern für die Aktualisierung der Referenzbilder nach Maßgabe der kombinierten Bilder.

3. Bildprozessor nach Anspruch 3,

dadurch gekennzeichnet,

daß der Signalprozessor (200) einen digitalen Signalprozessor umfaßt, jedes der genannten Bilder aus Pixeln besteht und jedes dieser Pixel einen Intensitätswert hat.

4. Bildprozessor nach Anspruch 2,

dadurch gekennzeichnet,

daß die Speicherstellen der ersten Mehrzahl von Speicherstellen (100) so ausgebildet sind, daß sie die Referenzbilder als komprimierte Intensitätsbilder speichern,

und daß der Bildprozessor ferner einen Signalprozessor aufweist zur Erzeugung von Referenzbildern aus komprimierten Intensitätsbildern und zur Erzeugung von komprimierten Intensitätsbildern aus Referenzbildern.

5. Bildprozessor nach Anspruch 3,

dadurch gekennzeichnet,

daß das erste Filter (210) ein Prädiktionsfilter (250) umfaßt zur Erzeugung einer Mehrzahl von Prädiktionsbildern aus den genannten Referenzbildern sowie ein Sensorsimulationsfilter (240) zur Erzeugung des simulierten Intensitätsbildes aus der Mehrzahl von Prädikfionsbildern.

6. Bildprozessor nach Anspruch 5,

dadurch gekennzeichnet,

daß das zweite Filter (260) ein Prädiktionsfilter umfaßt zur Erzeugung einer Mehrzahl von Bildern für die Aktualisierung der Referenzbilder aus den kombinierten Bildern.

7. Bildprozessor nach Anspruch 6,

dadurch gekennzeichnet,

daß jedes der genannten Prädiktionsfilter (250, 260) ein Kalman-Prädiktionsfilter aufweist.

8. Bildprozessor nach Anspruch 6,

dadurch gekennzeichnet,

daß der Bildgenerator (245) so ausgebildet ist, daß er die Mehrzahl von kombinierten Bildern durch separates Kombinieren jedes der genannten Prädiktionsbildern mit wenigstens einem Intensitätsbild und dem simulierten Intensitätsbild in der Weise erzeugt, daß die Differenzen zwischen dem wenigstens einen Intensitätsbild und dem simulierten Bild in die Mehrzahl von kombinierten Bildern einbezogen sind.

9. Bildprozessor nach Anspruch 8,

dadurch gekennzeichnet,

daß der Bildgenerator (255) so ausgebildet ist, daß er die kombinierten Bilder nach der folgenden Gleichung erzeugt:

Ck = Pk · Dk/Sk,

worin Ck, Pk, Dk und Sk die Bildintensitäten für korrespondierende Pixel des zu bildenden kombinierten Bildes, eines der Prädiktionsbilder, des wenigstens einen Intensitätsbildes bzw. des simulierten Intensitätsbildes bedeuten.

10. Bildprozessor nach Anspruch 8,

dadurch gekennzeichnet,

daß der digitale Signalprozessor einen Mikroprozessor umfaßt.

11. Verfahren zur Erzeugung von Intensitätsbildern Für die Verwendung bei der Erfassung und Verfolgung einer Mehrzahl von Zielen, wobei diese Bilder mit einem Bildprozessor erzeugt werden durch Kombinieren einer Mehrzahl von extern abgeleiteten Intensitätsbildern, wobei wenigstens eines dieser extern abgeleiteten Intensitätsbilder aus konvertierten empfangenen Zielerfassungssignalen besteht, diese Zielerfassungssignale eine Information über die Orte der Ziele während eines speziellen Zeitintervalls liefern, andere der extern abgeleiteten Intensitätsbilder eine Mehrzahl von Referenzbildern umfassen und jeweilige Paare der Referenzbilder eine Information über den Ort und die. Ortsveränderung wenigstens eines der Ziele während eines vorbestimmten Zeitintervalls relativ zu dem genannten speziellen Zeitintervall liefern,

wobei das Verfahren die Verfahrensschritte umfaßt:

Erzeugen eines simulierten Intensitätsbildes des wenigstens einen extern abgeleiteten konvertierten Intensitätsbildes aus den Referenzbildern durch Filtern der Referenzbilder und

Bilden einer Mehrzahl von kombinierten Intensitätsbildern durch Kombinieren des simulierten Intensitätsbildes mit dem konvertierten Intensitätsbild.

12. Verfahren nach Anspruch 11,

dadurch gekennzeichnet,

daß es ferner vor dem Verfahrensschritt des Erzeugens die folgenden Verfahrensschritte aufweist:

Empfangen von Zielerfassungssignalen für die genannte Mehrzahl von Zielen und

Konvertieren der empfangen Zielerfassungssignale in das wenigstens eine Intensitätsbild.

13. Verfahren nach Anspruch 11,

dadurch gekennzeichnet,

daß es ferner im Anschluß an den Verfahrensschritt des Bildens folgende Verfahrensschritte aufweist:

Erzeugen einer Mehrzahl von aktualisierten Referenzbildern aus den kombinierten Intensitätsbildern durch Filtern der kombinierten Intensitätsbilder und

rekursives Ausführen der vorgenannten Verfahrensschritte des Erzeugens eines simulierten Intensitätsbildes, des Bildens einer Mehrzahl von kombinierten Intensitätsbildern und des Erzeugens einer Mehrzahl von aktualisierten Referenzbildern, bis die Differenzen zwischen dem zuletzt erzeugten simulierten Intensitätsbild und dem konvertierten Intensitätsbild auf einem vorbestimmten Niveau konvergieren.

14. Verfahren nach Anspruch 13,

gekennzeichnet durch

die folgenden zusätzlichen Verfahrensschritte:

Erzeugen eines Restintensitätsbildes, das den Differenzen zwischen dem zuletzt erzeugten simulierten Bild und dem konvertierten Bild nach dem Konvergieren auf einem vorbestimmten Niveau entspricht,

Bilden eines Paares von Referenzbildern aus dem Restintensitätsbild, das eine Information über den Ort und die Ortsveränderung eines weiteren Ziels liefert, und

rekursives Ausführen der Verfahrensschritte des Erzeugens eines weiteren simulierten Intensitätsbildes, des Bildens einer Mehrzahl von kombinierten Intensitätsbildern und des Erzeugens einer Mehrzahl von aktualisierten Referenzbildern, bis die Differenzen zwischen dem zuletzt erzeugten weiteren simulierten Intensitätsbild und dem konvertierten Intensitätsbild auf einem vorbestimmten Niveau konvergieren.

15. Verfahren nach Anspruch 13,

gekennzeichnet durch

den weiteren Verfahrensschritt des Speicherns der Referenzbilder in der ersten Mehrzahl von Speicherstellen in Form von komprimierten Intensitätsbildern,

wobei der Verfahrensschritt des Erzeugens eines simulierten Intensitätsbildes ferner den Verfahrensschritt des Bildens von Referenzbildern aus den komprimierten Intensitätsbildern beinhaltet und

wobei der Verfahrensschritt des Erzeugens einer Mehrzahl von aktualisierten Referenzbildern aus den kombinierten Bildern ferner den Verfahrensschritt des Bildens von komprimierten aktualisierten Referenzbildern aus den aktualisierten Referenzbildern beinhaltet.

16. Verfahren nach Anspruch 13,

dadurch gekennzeichnet,

daß wenigstens ein weiteres der extern abgeleiteten Bilder aus konvertierten empfangenen Zielerfassungssignalen besteht und das wenigstens eine weitere extern abgeleitete Bild ein weiteres konvertiertes Intensitätsbild darstellt, wobei die letztgenannten konvertierten Zielerfassungssignale eine Information über Orte der genannten Ziele während eines anderen Zeitintervalls liefern,

wobei der Verfahrensschritt des Erzeugens eines simulierten Intensitätsbildes das Erzeugen eines simulierten Intensitätsbildes eines weiteren konvertierten Intensitätsbildes beinhaltet,

wobei der Verfahrensschritt des Bildens das Bilden einer Mehrzahl von kombinierten Intensitätsbildern durch Kombinieren jedes der simulierten Intensitätsbilder mit dem korrespondierenden konvertierten Intensitätsbild beinhaltet, und

wobei der Verfahrensschritt des rekursiven Ausführens der vorgenannten Verfahrensschritte durchgeführt wird, bis die Differenzen zwischen jedem der zuletzt erzeugten simulierten Intensitätsbildern und dem korrespondierenden konvertierten Intensitätsbild bei einer vorbestimmten Größe konvergieren.

17, Verfahren nach Anspruch 13,

dadurch gekennzeichnet,

daß der Verfahrensschritt des Erzeugens eines simulierten Bildes die Verfahrensschritte umfaßt:

Erzeugen einer Mehrzahl von Bildern, die die Orte der Ziele während des speziellen Zeitintervalls prädizieren, durch Anlegen der Referenzbilder an ein Prädiktionsfilter,

Bilden eines Prädiktionsbildes durch Überlagern der Mehrzahl von Prädiktionsbildern und

Anlegen des Ziel-Prädiktionsbilds an ein Sensorsimulationsfilter, um das genannte simulierte Bild zu erzeugen.

18. Verfahren nach Anspruch 17,

dadurch gekennzeichnet,

daß der Verfahrensschritt des Bildens der kombinierten Intensitätsbilder den Verfahrensschritt umfaßt, daß eine Mehrzahl von kombinierten Bildern erzeugt wird, indem jedes der Prädiktionsbilder separat mit dem konvertierten Intensitätsbild und dem simulierten Bild so kombiniert wird, daß die Differenzen zwischen dem konvertierten Intensitätsbild und dem simulierten Intensitätsbild in die kombinierten Intensitätsbilder eingezogen sind.

19. Verfahren nach Anspruch 18,

dadurch gekennzeichnet,

daß die kombinierten, prädizierten, konvertierten und simulierten Intensitätsbilder aus einer entsprechenden Anzahl von Pixeln bestehen, die in einem rechteckigen Array angeordnet sind, wobei der Verfahrensschritt des Bildens der Mehrzahl von kombinierten Intensitätsbildern nach folgenden Gleichung durchgeführt wird:

Ck = Pk · Dk/Sk,

worin Ck, Pk, Dk und Sk die Bildintensitäten für korrespondierende Pixel des durch Kombinieren von Intensitätsbildern zu bildenden kombinierten Bildes, eines der Prädiktionsbilder, des konvertierten Intensitätsbildes bzw. des simulierten Intensitätsbildes bedeuten.

20. Verfahren nach Anspruch 19,

dadurch gekennzeichnet,

daß der Verfahrensschritt des Erzeugens der aktualisierten Referenz-Intensitätsbilder den Verfahrensschritt des Anlegens der kombinierten Intensitätsbilder an ein Prädiktionsfilter umfaßt.

21. Verfahren nach Anspruch 20,

dadurch gekennzeichnet,

daß die Zielerfassungssignale Vibrationsenergiesignale, Schallsignale oder elektromagnetische Signale umfassen.







IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com