PatentDe  


Dokumentenidentifikation DE102006055652A1 31.05.2007
Titel Verfahren zur Aufarbeitung dreidimensionaler Daten und Vorrichtung zur Aufarbeitung dreidimensionaler Daten
Anmelder Kabushiki Kaisha Topcon, Tokio/Tokyo, JP
Erfinder Ohtomo, Fumio, Asaka, Saitama, JP;
Otani, Hitoshi, Kumagaya, Saitama, JP
Vertreter LOUIS, PÖHLAU, LOHRENTZ, 90409 Nürnberg
DE-Anmeldedatum 23.11.2006
DE-Aktenzeichen 102006055652
Offenlegungstag 31.05.2007
Veröffentlichungstag im Patentblatt 31.05.2007
IPC-Hauptklasse G01C 21/04(2006.01)A, F, I, 20061123, B, H, DE
IPC-Nebenklasse G01B 11/24(2006.01)A, L, I, 20061123, B, H, DE   G06K 9/62(2006.01)A, L, I, 20061123, B, H, DE   G01S 5/12(2006.01)A, L, I, 20061123, B, H, DE   G01C 11/02(2006.01)A, L, I, 20061123, B, H, DE   
Zusammenfassung Vorgestellt wird ein Verfahren zur Aufbereitung dreidimensionaler Daten mit einem ersten Schritt, bei dem kontinuierlich digitale Bilder von Örtlichkeiten in der Umgebung während der Bewegung von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist, aufgenommen werden; mit einem zweiten Schritt, bei dem Spurpunkte von einem an dem ersten Punkt erfassten Bild erzeugt werden und nachfolgend die Spurpunkte aus der Nachverfolgung der Punkte bestimmt werden, die aus den kontinuierlich aufgenommenen Bildern erzeugt werden; mit einem dritten Schritt, bei dem dreidimensionale Daten der Spurpunkte, basierend auf dem Ergebnis der Orientierung der Spurpunkte, an dem ersten Punkt und an dem zweiten Punkt sowie aus Positionsdaten des ersten Punktes und des zweiten Punktes gewonnen werden; mit einem vierten Schritt, bei dem nachfolgend eine Position des dritten Punktes, d. h. eines unbekannten Punktes, basierend auf dem Ergebnis der Orientierung des Spurpunktes, der an dem dritten Punkt ermittelt wurde, und basierend auf dreidimensionalen Positionsdaten des Spurpunktes, gewonnen wird; mit einem fünften Schritt, bei dem dreidimensionale Positionsdaten aus einem Bild gewonnen werden, das die Spurpunkte aus dem Ergebnis der Orientierung der Bilder enthält, welche die Spurpunkte an dem ersten Punkt und an dem zweiten Punkt enthalten, sowie aus Positionsdaten an dem ersten Punkt und an ...

Beschreibung[de]
Hintergrund der Erfindung

Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Aufarbeitung dreidimensionaler Daten und eine Vorrichtung zur Aufarbeitung dreidimensionaler Daten unter Verwendung von GPS (Global Positioning System), im Falle dass eine Positionsmessung durch GPS nicht erfolgreich erreicht werden kann.

In den zurückliegenden Jahren wurde die Positionsmessung unter der Verwendung von GPS in zunehmendem Maße vorangetrieben. Beispielsweise wird im Falle, dass eine Arbeit im Bauwesen durch eine Baumaschine, wie etwa eine Planierraupe, durchgeführt wird, die Arbeitsposition, d.h. die Position der Planierraupe, insbesondere durch ein GPS-Positions-erkennendes Gerät, bestimm und die Arbeitsposition wird so bestätigt. In einem anderen Fall wird eine elektronisch vorliegende Karteninformation, wie sie beispielsweise in einem Autonavigator enthalten ist, mit Positionsdaten eines beweglichen Objekts, die über ein GPS-Positionserkennungsgerät erhalten werden, verknüpft und die momentane Position wird auf einer elektronische Karte abgebildet und in ein Bild umgewandelt und die momentane Position und ähnliches werden auf einem bildanzeigenden Gerät angezeigt. Auf diese Weise ist es möglich, die momentane Position eines beweglichen Objekts in Echtzeit zu messen.

Im Falle, dass eine Arbeit im Bauwesen durch eine Baumaschine ausgeführt wird, ist es vorteilhaft, dreidimensionale Daten der Arbeitsposition oder dreidimensionale Daten von einer beabsichtigten bzw. geplanten Arbeitsposition zu erhalten, um die Konstruktionsdaten mit dem Ziel abzustimmen, die Bautätigkeit mit hoher Genauigkeit auszuführen.

Unter solchen Bedingungen, dass die Technik der Bildverarbeitung sich weiterentwickelt und die Kapazität von Speichermedien anwächst, gibt es nun eine starke Nachfrage nach dreidimensionalen Darstellungen von Topographie und Örtlichkeiten, um eine visuelle Bewertung der Funktion elektronischen Kartenmaterials weiter zu erleichtern. Ebenso wird nun gewünscht, Bildmaterial mit dreidimensionalen Daten in einfacher Art und Weise und in großem Umfang als Kartenmaterial zu erhalten.

Bei der Messung einer Position mittels GPS werden jedoch elektrische Wellen von Satelliten verwendet. Wird die elektrische Welle von einem Satelliten von einem Hindernis, z.B. einem Berg, einem Gebäude usw., unterbrochen, so ist dann dort eine Örtlichkeit (eine Abschattung), welche die elektrische Welle nicht erreicht. Deshalb kann am Ort der Abschattung eine Positionsmessung mittels GPS nicht durchgeführt werden.

In der Vergangenheit war es nötig, für den Ort oder den Bereich, an dem eine Positionsmessung mittels GPS nicht durchgeführt werden kann, den Arbeitsvorgang anzuhalten und die Überwachung des Arbeitsvorganges durch menschliche Arbeitskraft unter Zuhilfenahme konventioneller Überwachungsinstrumente weiter zu überwachen.

Des weiteren können für den Ort der Abschattung als Kartendaten nur Bildmaterial ohne Positionsdaten und/oder planare Bilddaten erlangt werden. Es gibt bislang Umstände, bei denen beispielsweise elektronisches Kartenmaterial und ähnliches nicht durch kontinuierliches dreidimensionales Bildmaterial dargestellt werden kann.

Zusammenfassung der Erfindung

Es ist eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur Aufarbeitung dreidimensionaler Daten und ein Verfahren zur Aufarbeitung dreidimensionaler Daten bereitzustellen, durch die ermöglicht wird, kontinuierliche Positionsmessung durchzuführen, selbst an einem Ort der Abschattung, an dem die elektrische Welle eines Satelliten unterbrochen ist, unter Verwendung eines einzelnen GPS Positionserkennungsgerätes und dies ohne die Positionsmessung zu unterbrechen, und eine große Menge kontinuierlicher dreidimensionaler Daten und Bilder mit dreidimensionalen Daten zu erfassen. Außerdem ist es möglich, dreidimensionale Daten aus kontinuierlichen Bildern aufzuarbeiten, die während einer Bewegung erfasst werden, selbst wenn das positionserkennende Gerät nicht zur Verfügung steht.

Um die obige Aufgabe zu erzielen, stellt die vorliegende Erfindung ein Verfahren zur Aufbereitung bzw. Erzeugung dreidimensionaler Daten zur Verfügung, das einen ersten Schritt umfasst, bei dem kontinuierlich digitale Bilder von Örtlichkeiten in der Umgebung während der Bewegung von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist, aufgenommen werden; das einen zweiten Schritt umfasst, bei dem Spurpunkte von einem an dem ersten Punkt erfassten Bild erzeugt werden und nachfolgend die Spurpunkte aus der Nachverfolgung der Punkte bestimmt werden, die aus den kontinuierlich aufgenommen Bildern erzeugt werden; das einen dritten Schritt umfasst, bei dem dreidimensionale Daten der Spurpunkte basierend auf dem Ergebnis der Orientierung der Spurpunkte an dem ersten Punkt und an dem zweiten Punkt sowie aus Positionsdaten des ersten Punktes und des zweiten Punktes gewonnen werden; das einen vierten Schritt umfasst, bei dem nachfolgend eine Position des dritten Punktes, d.h. eines unbekannten Punktes, basierend auf dem Ergebnis der Orientierung des Spurpunktes, der an dem dritten Punkt ermittelt wurde, und basierend auf dreidimensionalen Positionsdaten des Spurpunktes, gewonnen wird; das einen fünften Schritt umfasst, bei dem dreidimensionale Positionsdaten aus einem Bild gewonnen werden, das die Spurpunkte aus dem Ergebnis der Orientierung der Bilder enthält, welche die Spurpunkte an dem ersten Punkt und an dem zweiten Punkt enthalten, sowie aus Positionsdaten an dem ersten Punkt und an dem zweiten Punkt gewonnen werden; und das einen sechsten Schritt umfasst, bei dem nachfolgend dreidimensionale Positionsdaten aus Bildern gewonnen werden, die die Spurpunkte aus dem Ergebnis der Orientierung von Bildern enthalten, welche die Spurpunkte an dem zweiten Punkt und an dem dritten Punkt enthalten, sowie aus den Positionsdaten an dem zweiten Punkt und an dem dritten Punkt gewonnen werden. Außerdem stellt die vorliegende Erfindung das oben beschriebene Verfahren zur Aufarbeitung der dreidimensionalen Daten zur Verfügung, wobei Positionsdaten durch eine GPS-Positions-erkennende Vorrichtung gemessen werden und zumindest am ersten Punkt und am zweiten Punkt als bekannt herausgestellt werden. Des weiteren stellt die vorliegende Erfindung das oben beschriebene Verfahren zur Aufarbeitung der dreidimensionalen Daten zur Verfügung, wobei Positionsdaten des Spurpunktes aus den bekannten Daten am ersten Punkt und am zweiten Punkt durch die Methode des Vorwärtsschnittes ermittelt werden und wobei Positionsdaten des dritten Punktes aus den dreidimensionalen Daten des Spurpunktes im Bild mittels der Methode des Rückwärtsschnittes ermittelt werden. Außerdem stellt die vorliegende Erfindung das wie oben beschriebene Verfahren zur Aufarbeitung der dreidimensionalen Daten zur Verfügung, wobei Bilder in einer Vielzahl bzw. Mannigfaltigkeit von Richtungen kontinuierlich erfasst werden und wobei die Spurpunkte in Bildern in zumindest einer Richtung erzeugt werden.

Außerdem stellt die vorliegende Erfindung eine Einrichtung zur Aufbereitung dreidimensionaler Daten vor mit einer Bildaufnahme-Vorrichtung zur kontinuierlichen Aufnahme digitaler Bilder von Örtlichkeiten aus der Umgebung während eines Bewegungsvorgangs von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist; mit einem Richtungssensor zum Erkennen der Bildaufnahme-Richtung der Bildaufnahme-Vorrichtung; und mit einer Datenverarbeitungs- und Aufbereitungseinheit, die ausgestaltet ist, um einen Spurpunkt aus einem Bild zu erzeugen, das an dem ersten Punkt erfasst worden ist, um nachfolgend den Spurpunkt durch die Nachverfolgung der Punkte, die in den kontinuierlich erfassten Bildern erzeugt werden, zu bestimmen, um dreidimensionale Positionsdaten der Spurpunkte aus dem Ergebnis der Orientierung des Spurpunktes an dem ersten Punkt und an dem zweiten Punkt sowie aus Positionsdaten des ersten Punktes und des zweiten Punktes zu bestimmen, um nachfolgend den dritten Punkt, der ein unbekannter Punkt ist, aus dem Ergebnis der Orientierung der an dem dritten Punkt erfassten Spurpunkte und aus dreidimensionalen Positionsdaten der Spurpunkte zu erhalten, um dreidimensionale Positionsdaten von einem Bild, das die Spurpunkte enthält, aus dem Ergebnis der Orientierung eines Bildes zu erhalten, das die Spurpunkte enthält an dem ersten Punkt und an dem zweiten Punkt enthält und aus Positionsdaten des ersten Punktes und des zweiten Punktes zu erhalten, und um nachfolgend dreidimensionale Positionsdaten von einem Bild, das die Spurpunkte enthält, aus dem Ergebnis der Orientierung von Bildern zu erhalten, die die Spurpunkte an dem zweiten Punkt und an dem dritten Punkt enthalten und aus Positionsdaten von dem zweiten Punkt und von dem dritten Punkt zu erhalten. Ebenso stellt die vorliegende Erfindung das Gerät zur Aufarbeitung bzw. Erzeugung dreidimensionaler Daten wie oben beschrieben zur Verfügung, wobei die bekannten Daten des ersten Punktes und des zweiten Punktes mit dem GPS-Positionserkennenden Gerät gemessen werden. Des weiteren stellt die vorliegende Erfindung das Gerät zur Aufarbeitung dreidimensionaler Daten wie oben beschrieben zur Verfügung, das einen vollständig rund umlaufenden Spiegel und Bildkorrektur-Mittel enthält, wobei die Bildaufnahme-Vorrichtung in der Lage ist, Bilder in der gesamten Umlaufrichtung in horizontaler Richtung mittels des vollständig rund umlaufenden Spiegels aufzunehmen und wobei die Bildkorrektur-Mittel die aufgenommenen Bilder korrigieren.

Die vorliegende Erfindung stellt ein Verfahren zur Aufbereitung dreidimensionaler Daten zur Verfügung, das einen ersten Schritt umfasst, bei dem kontinuierlich digitale Bilder von Örtlichkeiten in der Umgebung während der Bewegung von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist, aufgenommen werden; das einen zweiten Schritt umfasst, bei dem Spurpunkte von einem an dem ersten Punkt erfassten Bild erzeugt werden und nachfolgend die Spurpunkte aus der Nachverfolgung der Punkte bestimmt werden, die aus den kontinuierlich aufgenommen Bildern erzeugt werden; das einen dritten Schritt umfasst, bei dem dreidimensionale Daten der Spurpunkte basierend auf dem Ergebnis der Orientierung der Spurpunkte an dem ersten Punkt und an dem zweiten Punkt sowie aus Positionsdaten des ersten Punktes und des zweiten Punktes gewonnen werden; das einen vierten Schritt umfasst, bei dem nachfolgend eine Position des dritten Punktes, d.h. eines unbekannten Punktes, basierend auf dem Ergebnis der Orientierung des Spurpunktes, der an dem dritten Punkt ermittelt wurde, und basierend auf dreidimensionalen Positionsdaten des Spurpunktes, gewonnen wird; das einen fünften Schritt umfasst, bei dem dreidimensionale Positionsdaten aus einem Bild gewonnen werden, das die Spurpunkte aus dem Ergebnis der Orientierung der Bilder enthält, welche die Spurpunkte an dem ersten Punkt und an dem zweiten Punkt enthalten, sowie aus Positionsdaten an dem ersten Punkt und an dem zweiten Punkt gewonnen werden; und das einen sechsten Schritt umfasst, bei dem nachfolgend dreidimensionale Positionsdaten aus Bildern gewonnen werden, die die Spurpunkte aus dem Ergebnis der Orientierung von Bildern enthalten, welche die Spurpunkte an dem zweiten Punkt und an dem dritten Punkt enthalten, sowie aus den Positionsdaten an dem zweiten Punkt und an dem dritten Punkt gewonnen werden. Demzufolge ist es möglich, ein Bild mit dreidimensionalen Daten für einen dritten Punkt und die nachfolgenden Punkte zu erstellen, falls Positionsdaten für zumindest den ersten Punkt und den zweiten Punkt zum Zeitpunkt des Beginns der Messung verfügbar sind.

Ebenso stellt die vorliegende Erfindung das Verfahren zur Aufbereitung dreidimensionaler Daten wie oben beschrieben zur Verfügung, wobei Positionsdaten mittels eines GPS-Positionserfassenden-Gerätes bzw. einer Vorrichtung gemessen werden und zumindest für den ersten Punkt und den zweiten Punkt als bekannt herausgestellt werden bzw. als bestimmt gelten. Somit kann ein individuelles Verfahren der Messung, um die bekannten Daten am ersten Punkt und am zweiten Punkt zu erhalten, entfallen und das Bild mit dreidimensionalen Daten kann unverzüglich nach Bedarf für eine beliebige Zeit, für einen beliebigen Punkt und für einen beliebigen Bereich aufbereitet werden.

Des weiteren stellt die vorliegende Erfindung das Verfahren zur Aufbereitung dreidimensionaler Daten wie oben beschrieben zur Verfügung, wobei Positionsdaten des Spurpunktes aus den bekannten Daten am ersten Punkt und am zweiten Punkt durch die Methode des Vorwärtsschnittes erhalten werden und Positionsdaten des dritten Punktes aus den dreidimensionalen Positionsdaten des Spurpunktes im Bild mittels der Methode des Rückwärtsschnittes erhalten werden. Demzufolge ist es möglich, ein Bild mit dreidimensionalen Daten aus kontinuierlich erfassten Bildern ohne Verwendung eines positionsmessenden Gerätes zu erstellen.

Weiterhin stellt die vorliegende Erfindung eine Einrichtung bzw. eine Anordnung zur Aufarbeitung dreidimensionaler Daten zur Verfügung, welche ein Gerät bzw. eine Vorrichtung zur Bildaufnahme enthält, mit der kontinuierlich Bilder von Örtlichkeiten der Umgebung aufgenommen werden in einer Weise, dass man sich von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist, bewegt, und welche einen Richtungssensor enthält, um die Richtung der Bildaufnahmevorrichtung bei der Bildaufnahme festzustellen, und welche eine Einheit zur Vorbereitung der Datenverarbeitung enthält, die dazu dient einen Spurpunkt aus einem am ersten Punkt aufgenommenen Bild zu erzeugen, um sequentiell den Spurpunkt aus der Nachverfolgung der Punkte zu bestimmen, die in kontinuierlich aufgenommenen Bildern erzeugt werden, welche dazu dient dreidimensionale Positionsdaten aus dem Ergebnis der Orientierung des Spurpunktes am ersten Punkt und am zweiten Punkt zu erhalten und aus Positionsdaten des ersten Punktes und des zweiten Punktes, welche dazu dient sequentiell den dritten Punkt, der ein unbekannter Punkt ist, aus dem Ergebnis der Orientierung der Spurpunkte zu erhalten, die am dritten Punkt aufgenommen werden und aus den dreidimensionalen Positionsdaten der Spurpunkte, welche dazu dient dreidimensionale Positionsdaten eines Bildes zu erhalten, das die Spurpunkte enthält, aus dem Ergebnis der Ausrichtung von Bildern, die die Spurpunkte am ersten Punkt und am zweiten Punkt enthalten und aus Positionsdaten des ersten Punktes und des zweiten Punktes, und die dazu dient sequentiell dreidimensionale Positionsdaten zu erhalten von einem Bild das die Spurpunkte enthält aus dem Ergebnis der Ausrichtung von Bildern, die die Spurpunkte enthalten am zweiten Punkt und am dritten Punkt und aus Positionsdaten des zweiten Punktes und des dritten Punktes. Somit ist es möglich, wenn Positionsdaten des ersten und des zweiten Punktes zumindest zum Zeitpunkt des Beginns der Messung verfügbar sind, ein Bild mit dreidimensionalen Daten zu erstellen des dritten Punktes und der nachfolgenden Punkte zu erstellen bzw. aufzubereiten, und dass das Bild mit dreidimensionalen Daten aufgrund der erfassten kontinuierlichen Bildern erstellt bzw. aufbereitet werden kann, selbst wenn ein positionsmessendes Gerät nicht zur Verfügung steht.

Des weiteren stellt die vorliegende Erfindung die wie oben beschriebene Einrichtung zur Aufarbeitung dreidimensionaler Daten zur Verfügung, welche ein GPS-Positions-erkennendes-Gerät umfasst, bei dem die bekannten Daten des ersten Punktes und des zweiten Punktes durch das positionserkennende Gerät gemessen werden. Dies ermöglicht es, individuelle Verfahren zur Messung der bekannten Daten am ersten Punkt und am zweiten Punkt entfallen zu lassen, und es ist möglich, ein Bild mit dreidimensionalen Daten unverzüglich nach Bedarf für eine beliebige Zeit, für einen beliebigen Punkt und für einen beliebigen Bereich aufzubereiten.

Ebenso stellt die vorliegende Erfindung die wie oben beschriebene Einrichtung zur Aufarbeitung dreidimensionaler Daten zur Verfügung, welche einen vollständig umlaufenden Spiegel und Mittel zur Bildkorrektur umfasst, wobei das bildaufnehmende Gerät in der Lage ist, Bilder in der gesamten Umlaufrichtung in horizontaler Richtung mittels des vollständig umlaufenden Spiegels aufzunehmen, und wobei die Mittel zur Bildkorrektur die aufgenommenen Bilder korrigieren. Demzufolge ist es möglich, mittels eines einzigen bildaufnehmenden Gerätes Bilddaten für einen großen Bereich, der mit den Positionsdaten verknüpft ist, zu erfassen.

Kurzbeschreibung der Zeichnungen

1 ist eine schematische Zeichnung, die eine Positions-messende Einrichtung bzw. Vorrichtung entsprechend einer Ausführungsform der vorliegenden Erfindung darstellt;

2 ist eine Zeichnung, um eine mögliche Realisierung der Ausführungsform zu erklären;

3 ist ein schematisches Blockdiagramm eines Positions-messenden Einrichtung bzw. Vorrichtung entsprechend einer Ausführungsform der vorliegenden Erfindung;

4 zeigt einen Zustand eine Bedingung der Messung in der Ausführungsform der vorliegenden Erfindung;

5 ist eine perspektivische Ansicht eines Zustandes der Bildaufnahme in der obigen Positions-messenden Einrichtung;

6(A) und 6(B) stellen jeweils ein erhaltenes Bild dar;

7(A) ist eine Zeichnung, um die Positionsmessung an Spurpunkten durch die auf das erhaltene Bild angewendete Methode des Vorwärtsschnittes (Intersektion) zu erklären, und

7(B) ist eine Zeichnung, um die Positionsmessung an Spurpunkten durch die auf das erhaltene Bild angewendete Methode des Rückwärtsschnittes (Resektion bzw. rückwärtige Intersektion) zu erklären;

8 ist ein Flussdiagramm, um die Arbeitsweise der Ausführungsform der vorliegenden Erfindung zu zeigen;

9 ist eine Zeichnung, um eine andere Realisierungsform des positionserkennenden Sensors entsprechend der vorliegenden Erfindung zu erklären;

10 ist eine schematische Zeichnung des positionserkennenden Sensors.

Detaillierte Beschreibung der bevorzugten Ausführungsform

Nachstehend wird die beste bzw. bevorzugte Ausführungsart der vorliegenden Erfindung mit Bezug zu den beigefügten Zeichnungen beschrieben.

Gemäß der vorliegenden Erfindung werden kontinuierliche Bilder von einem beweglichen Objekt aus, während die Position des beweglichen Objekts gemessen wird, erfasst und dreidimensionale Daten werden mit dem erfassten Bild verknüpft.

Zuerst wird eine Beschreibung einer Einrichtung bzw. Vorrichtung 1 der vorliegenden Erfindung zur Aufbereitung dreidimensionaler Daten mit Bezug zu 1 und 2 gemacht:

Dir 1 zeigt allgemeine Merkmale einer Vorrichtung 1 zur Aufbereitung dreidimensionaler Daten. Die Vorrichtung bzw. das Gerät 1 zur Aufbereitung dreidimensionaler Daten enthält in erster Linie eine Datenaufbereitungs-Einheit 2, einen positionserkennenden Sensor 3, eine Bedienungs-Einheit 4 und eine Anzeige-Einheit 5. Der positionserkennende Sensor 3 ist an einer Stelle mit gutem Überblick an einem beweglichen Objekt 9 angebracht, wie beispielsweise dem Dach über dem Fahrerstand eines Automobils, einer Planierraupe, usw.. Die Datenaufbereitungs-Einheit 2, die Bedien-Einheit 4 und die Anzeige-Einheit 5 werden von einem Bediener oder einem Fahrer bedient und die Datenaufbereitungs-Einheit 2, die Bedien-Einheit 4 und die Anzeige-Einheit 5 sind an einer Stelle angebracht, die visuell erkennbar ist, wie zum Beispiel an einem Fahrerstand. Die Bedien-Einheit bzw. Bedienungs-Einheit ist als Berührungs-Bedienfeld (sog. Touch Panel) ausgeführt und kann in die Anzeige-Einheit integriert sein.

Die 2 zeigt einen Fall, in dem der positionserkennende Sensor 3 auf dem Dach eines Automobils als Beispiel für das bewegliche Objekt 9 angebracht ist.

Der positionserkennende Sensor 3 enthält eine GPS-Positions-erkennende Vorrichtung 7 bzw. Gerät, das an der Oberseite einer Sensorhaupteinheit 6 angebracht ist, enthält ein bildaufnehmendes Gerät 8a, ein bildaufnehmendes Gerät 8b, ein bildaufnehmendes Gerät 8c und ein bildaufnehmendes Gerät 8d (im weiteren allgemein als „bildaufnehmendes Gerät 8" bezeichnet), welches das aufgenommene Bild in Form digitaler Daten ausgeben kann, wie beispielsweise Digitalkameras, die an die Seitenflächen der Sensorhaupteinheit angebracht sind und in vier Richtungen zeigen, und enthält einen Azimuthsensor 10 (siehe 3) Das Bildaufnahme-Gerät 8 enthält Bildaufnahme-Elemente, die eine Vielzahl von Bildpunkten enthalten, wie beispielsweise ein CCD Sensor, ein CMOS Sensor, etc. Ein Bilddatenrahmen besteht aus einer Zusammenfassung von Signalen der Bildaufnahmeelemente. Durch Zuordnung des Bildaufnahme-Elements zum zugehörigen Signal kann eine Position in einem Bild zugeordnet werden. Außerdem besteht eine feste mechanische Beziehung zwischen dem Bildaufnahme-Gerät 8 und dem Azimuthsensor 10. Durch den Azimuth- bzw. Drehwinkel, der vom Azimuthsensor 10 festgestellt wird, kann die Bildaufnahmerichtung (Azimuth- bzw. Drehwinkel) jedes Bildaufnahme-Gerätes 8 einzeln bestimmt werden.

Das GPS-Positionserkennende Gerät 7 enthält eine GPS Antenne 11 und eine GPS Arithmetikeinheit 12 (siehe 3). Signale werden von einer Vielzahl von Satelliten durch die GPS Antenne 11 empfangen. Basierend auf den empfangenen Signalen berechnet die GPS Arithmetikeinheit entsprechend den Regeln der dreidimensionalen Geometrie eine Entfernung zwischen Satellit und Empfangspunkt und es wird eine dreidimensionale Positionsmessung durchgeführt. Als Verfahren zur Positionsmessungen sind Einzel-Positionsmessung, Interferenz-Positionsmessung etc. bekannt. Es wird zur Positionsmessung vorgezogen, ein RTK-Positionsmessungs-Verfahren (RTK: real-time kinematic bzw. Echtzeitkinematik) anzuwenden, das es ermöglicht, eine Positionsmessung innerhalb kurzer Zeit und während einer Bewegung auszuführen.

Durch die Bildaufnahme-Geräte 8 ist es möglich, Bilder aus dem gesamten Umkreis zu erfassen. Um den Bildaufnahmewinkel (Bildaufnahmebereich) des Bildaufnahme-Gerätes 8 zu erhalten, werden drei, fünf oder mehr Bildaufnahme-Geräte 8 angebracht. Ein Bildaufnahme-Gerät 8 kann in horizontaler Richtung gedreht bzw. rotiert werden und Bilder können nach Bedarf für jeden Rotationswinkel aufgenommen sowie die Örtlichkeiten des gesamten Umfeldes durch das Bildaufnahme-Gerät 8 erfasst werden.

Auch können zwei Bildaufnahme-Geräte 8 vorgesehen werden, so dass die Örtlichkeiten in zwei senkrecht zueinander stehenden Richtungen, welche die Fortbewegungsrichtung des beweglichen Objektes schneiden, aufgenommen werden können. In diesem Fall kann der Bilderfassungswinkel in einem angemessenen bzw. geeigneten Bereich liegen und der Bilderfassungswinkel muss nicht bei 180° liegen.

Das Bildaufnahme-Gerät 8a, das Bildaufnahme-Geräte 8b, das Bildaufnahme-Geräte 8c, und das Bildaufnahme-Geräte 8d nehmen Bilder in einem vorbestimmten Zeitintervall auf und sind gegenseitig synchronisiert. Die Positionsmessung durch das GPS-Positionserkennende Gerät wird in Synchronisation mit der Bildaufnahme oder in Synchronisation mit einem Zeitintervall, das Zeiten so lang wie das Bildaufnahme-Zeitintervall erfordert. Die Bilddaten des aufgenommenen Bildes und Positionsdaten, die vom positionserkennenden Sensor 3 erhalten werden, wenn das Bild aufgenommen wird, werden an die später beschriebene Einheit 2 zur Vorbereitung der Datenverarbeitung geschickt. Im Zeitintervall der Bildaufnahme durch das Bildaufnahme-Gerät 8 werden das letzte aufgenommene Bild und das momentan aufgenommene Bild übereinander gelegt und das Zeitintervall der Bildaufnahme ist so gewählt, dass die Kontinuität zwischen den aufgenommen Bildern nicht beeinträchtigt ist. Wenn sich das bewegliche Objekt 9 mit hoher Geschwindigkeit bewegt, sollte das Zeitintervall verkürzt werden. Bewegt sich das bewegliche Objekt 9 mit geringerer Geschwindigkeit, so kann das Zeitintervall länger sein. Das Zeitintervall zur Bildaufnahme kann fest vorgegeben sein, um zur maximalen Geschwindigkeit des beweglichen Objekts zu passen. Das Zeitintervall zur Bildaufnahme kann vorgegeben werden, um zur maximalen Geschwindigkeit des beweglichen Objektes zu passen und die Bilddaten, die an die Einheit 2 zur Vorbereitung der Datenverarbeitung geschickt werden, können an die Geschwindigkeit angepaßt werden und können ausgedünnt werden.

Es folgt nun mit Bezug auf 3 eine Beschreibung der Einheit 2 zur Vorbereitung der Datenverarbeitung:

Die Einheit 2 zur Vorbereitung der Datenverarbeitung enthält im allgemeinen eine I/O-Steuer-Einheit (13), eine Arithmetik-Steuer-Einheit 17, die durch eine CPU dargestellt ist, eine Speicher-Einheit 15, eine Kommunikations-Steuer-Einheit 16 usw..

Als Speicher-Einheit 15 kann eine Speicherkarte, Festplatte (HD: HardDisk), Diskette (FD: FloppyDisk), Magneto-Optischer Speicher (MO) usw. verwendet werden. Diese stehen als einbaute Komponenten oder in austauschbarer Form zur Verfügung. Die Speicher-Einheit 15 hat einen Bereich zur Programm-Speicherung 17 und einen Bereich zur Datenspeicherung 18. Im Programm-Speicherbereich 17 sind folgende Programme gespeichert: Ein Verfolgungsprogramm bzw. Sequenzprogramm zur Steuerung bzw. Kontrolle des Arbeitsablaufs des Gerätes, ein Bildverarbeitungsprogramm, um aus einem erfaßten Bild einen Spurpunkt zu ermitteln, ein Berechnungsprogramm, um einen Bildvergleich zwischen einer Vielzahl von Bildern durchzuführen und den Spurpunkt zwischen einer Vielzahl von Bildern nachzuverfolgen, ein Überwachungsprogramm, um eine Position eines unbekannten Punktes im Bild mit der Methode des Vorwärtsschnitts aus zwei dreidimensionalen Positionsdaten zu berechnen, die vom positionserkennenden Sensor 3 erhalten werden, und eine Position des positionserkennenden Sensors mit der Methode des Rückwärtsschnittes an zumindest zwei bekannten Punkten in zwei zugehörigen Bildern zu berechnen, ein Übertragungs-Steuerungs- bzw. Kontroll-Programm zur Übertragung der erhaltenen Messergebnisse an ein externes Gerät, wie beispielsweise ein Datensammelgerät, und ein Anzeigeprogramm, um die Ergebnisse von Positionsmessungen auf der Anzeigeeinheit 5 darzustellen.

In dem Datenspeicherbereich 18 werden die vom Bilderfassungsgerät 8 erfassten Bilddaten und die Positionsdaten vom positionserkennenden Sensor zum Zeitpunkt der Bilderfassung gespeichert. Die Positionsdaten werden mit den Bilddaten verknüpft und die Bilddaten sind Daten zeitlicher Abfolgen.

Die Kommunikations-Steuerungs- bzw. Kontroll-Einheit wird zur Steuerung bzw. Kontrolle der Übermittlung und des Empfangs von Daten genutzt, wenn diese an ein externes Datenverarbeitungsgerät, z.B. einen Personalcomputer, abgegeben oder von diesem gesendet werden.

Im folgenden wird unter Bezugnahme auf 4 bis 8. die Arbeitsweise erklärt:

Die 4 zeigt eine Bedingung bzw. einen Zustand, in dem sich das bewegliche Objekt zwischen einem Hindernis 20 und einem Hindernis 21 bewegt und sich der positionserkennenden Sensor 3 von einem ersten Punkt (Messpunkt 1) zu einem sechsten Punkt (Messpunkt 6) bewegt (im weiteren wird der Messpunkt P kurz als „P" bezeichnet). Bei P1 und P2 können Signale von Satelliten durch die GPS-Antenne 11 empfangen werden. Bei P1 bis P5 können Signale von Satelliten wegen der Hindernisse 20 und 21 nicht empfangen werden. Bei P6 können Signale von Satelliten wieder empfangen werden.

Für P1 und P2 gilt, dass eine Positionsmessung gemacht werden kann, nicht notwendigerweise durch Positionsmessung mittels GPS, sondern auch mit anderen Meßgeräten, und dass P1 und P2 als bekannte Punkte betrachtet werden können. Basierend darauf, dass P1 und P2 als bekannte Punkte feststehen, kann eine Erstellung dreidimensionaler Daten begonnen werden.

Während der Bewegung des beweglichen Objekts 9 werden kontinuierlich Bilder der Umgebung vom Bildaufnahme-Gerät 8 aufgenommen. Jeder Punkt P stellt die Position des beweglichen Objekts 9 für jedes festgelegte Zeitintervall dar.

Wenn das bewegliche Objekt zu P1 kommt, erfasst die Arithmetikkontrolleinheit 14 die Positionsdaten, welche vom GPS-Positionserkennenden Gerät 7 gemessen werden. Zur gleichen Zeit werden die Bilddaten, die vom Bildaufnahmegerät 8 gemachten werden, erfasst und die Bilddaten werden zusammen mit den Positionsdaten im Datenspeicherbereich 18 abgespeichert. Die Arithmetikkontrolleinheit 14 prüft für jeden Punkt P nach, ob vom GPS-Positionserkennenden Gerät 7 Positionsdaten eingegeben werden oder nicht. Abhängig davon, ob vom GPS positionserkennenden Gerät 7 Positionsdaten eingegeben werden oder nicht, wird – wie später beschrieben – beurteilt und ausgewählt, ob die Positionsmessung an jedem Punkt P die Messung des positionserkennenden Sensors 3 oder die Messung ist, welche durch die Methode des Vorwärtsschnitts (sog. Intersektion) und die Methode des Rückwärtsschnitts (sog. Resektion) basierend auf Bilddaten erhalten wird. Dann wird die Messung durchgeführt.

Untenstehend folgt die Beschreibung der Erfassung von Bildern und Örtlichkeiten auf der rechten Seite sowie von dem Hindernis 20 und der auf den Bildern basierenden Positionsmessung.

Ein Bild I1, das an P1 in 5 aufgenommen wurde, ist in der 6(a) dargestellt, und ein Bild I2, das kontinuierlich an P2 während der Bewegung von P1 nach P2 erfasst wurde, ist in 6(B) dargestellt.

Die Arithmetikkontrolleinheit 14 verknüpft die Bilddaten I1 an P1 mit den gemessenen Positionsdaten an P1 und beide verknüpften Daten werden im Datenspeicherbereich 18 abgespeichert. Die Arithmetikkontrolleinheit 14 führt eine Bildverarbeitung, wie beispielsweise Kantenverarbeitung, an den Bilddaten I1 an P1 basierend auf dem Bildverarbeitungsprogramm durch, und Eckpunkte oder Kreuzungspunkte, die charakteristische Punkte im Bild darstellen, werden in der benötigten Anzahl als Spurpunkte extrahiert (A1, A2, A3, ...) (durch offene Kreise in 6(a) angezeigt) (Schritt 01). Die Spurpunkte werden so extrahiert, dass sie über das gesamte Bild verstreut liegen.

Hier wird der Azimuth- bzw. Drehwinkel von P1 am Mittelpunkt der Bilddaten I1 aus dem Azimuth- bzw. Drehwinkel ermittelt bzw. gewonnen, der von Azimuth- bzw. Drehwinkelsensor 10 ermittelt wird. Der Azimuth- bzw. Drehwinkel jedes Spurpunktes (A1, A2, A3, ...) zu P1 wird aus der Position des Bildpunktes in den Bilddaten I1 berechnet (Position auf dem Bildaufnahmeelement bezogen auf den Bildaufnahmemittelpunkt).

Während der Bewegung bzw. des Fortgangs von P1 nach P2 werden kontinuierlich Bilder vom Bildaufnahmegerät 8 gemacht. Die in jedem Bild erzeugten Spurpunkte werden zwischen aufeinanderfolgenden Bildern nachverfolgt (Schritt 02).

Im weiteren wird die Nachverfolgung erklärt:

Der Spurpunkt ist als Nachverfolgungsobjekt festgelegt. Eine Position des Spurpunktes auf dem Bildaufnahmeelement wird als die Position eines Wiederfindungszentrums bzw. Wiederherstellungsstelle bzw. Angelpunktes abgespeichert. Auf den zeitlich nachfolgend nächsten erfassten Bilddaten wird der Spurpunkt innerhalb eines festgelegten Wiederfindungsbereiches zurückgewonnen, der als Mittelpunkt das abgespeicherte Wiederfindungszentrum hat. Wie oben beschrieben werden während der Bewegung kontinuierlich Bilder aufgenommen, und die Abweichung zwischen einem Bild und dem darauffolgenden Bild ist sehr gering. Der Spurpunkt ist innerhalb des Wiederfindungsbereiches der nächsten Bilddaten vorhanden und der Spurpunkt kann in den nächsten Bilddaten sofort festgelegt werden. Für die Wiederfindung innerhalb des Wiederfindungsbereiches wird eine sog. SSDA-Methode (Sequential Similarity Detection Algorithm, d.h. Algorithmus zu Erkennung nachfolgender Ähnlichkeit) oder eine Bereichskorrelationsmethode usw. verwendet.

Indem der im nächsten Bild festgelegte Spurpunkt als Wiederfindungsobjekt verwendet wird, wird der Spurpunkt des vorangehenden Bildes überprüft durch sog. back-matching, d.h. eine rückwärtige Übereinstimmung, überprüft. Wenn der durch back-matching erhaltene Spurpunkt nicht mit dem bereits erhaltenen Spurpunkt übereinstimmt, wird der Spurpunkt gelöscht. Mit der Ausführung des back-matching können Schatten (Verdeckungen) oder Hindernisse umgangen werden. Wenn man Spurpunkte von drei oder mehr Bildern erhalten hat, wird mittels einer Bündelausgleichsrechnung eine Überprüfung auf doppelt vorhanden Koordinaten durchgeführt und Spurpunkte mit geringerer Genauigkeit werden gelöscht. Durch die Löschung von Spurpunkten mit geringerer Genauigkeit wird die Genauigkeit, mit der Spurpunkte festgelegt werden, insgesamt verbessert.

Vorangehende Bilddaten werden mit den nachfolgenden Bilddaten verglichen, und die oben beschriebenen Spurpunkte werden aufeinenderfolgend wiedergefunden in zeitlichen Abfolgen.

Die Extraktion von Spurpunkten durch Bildverarbeitung und die Nachverfolgung der Spurpunkte werden kontinuierlich durchgeführt, unabhängig davon, ob Positionsdaten vom positionserkennenden Sensor 3 an jedem Punkt P eingegeben werden oder nicht. Die Bilddaten aus der Vergangenheit, für die die Nachverfolgung der Spurpunkte abgeschlossen ist (Bilddaten, die zwischen den Punkten P aufgenommen wurden) können zum Zweck der Verringerung des Speicherbedarfs gelöscht werden.

Als nächstes wird für P2 eine Positionsmessung vom positionserkennenden Sensor 3 ausgegeben und die Positionsmessdaten und ein Bild I2, aufgenommen an P2, werden in dem Datenspeicherbereich abgespeichert. Eine Bildverarbeitung wird am Bild I2 durchgeführt und die Spurpunkte (A1, A2, A3, ...) werden bestimmt. Der Azimuth- bzw. Drehwinkel jedes Spurpunktes (A1, A2, A3, ...) bezogen auf P2 zu diesem Zeitpunkt wird berechet basierend auf der Erkennung des Azimuth- bzw. Drehwinkels der Bildaufnahmerichtung durch den Azimuth- bzw. Drehwinkelsensor 10 und basierend auf der Position (Feldwinkel) des Bildes I2 an jedem der Spurpunkte (A1, A2, A3, ...) (siehe 7(A)).

Als nächstes, basierend auf den Positionsdaten von P1 und P2, welche bekannte Punkte sind, und basierend auf dem Azimuth- bzw. Drehwinkel jedes Spurpunktes (A1, A2, A3, ...) bezogen auf P1 und P2, werden dreidimensionale Positionsdaten jedes Spurpunktes (A1, A2, A3, ...) mit der Methode des Vorwärtsschnittes berechnet. (Schritt 03).

Als Ergebnis der Berechnung werden die Spurpunkte (A1, A2, A3, ...) als bekannte Punkte angenommen. Die Positionsdaten jedes Spurpunktes (A1, A2, A3, ...) werden mit den Bilddaten von Bild 1 und von Bild I2 verknüpft und im Speicherbereich 18 abgespeichert. Indem man die Spurpunkte als Passpunkte betrachtet (A1, A2, A3, ...) wird eine relative Orientierung des Bildes I1 und des Bildes I2 durchgeführt und Bild I1 und Bild I2 werden in Bilder umgewandelt, die dreidimensionale Daten enthalten (Stereobilder). Außerdem werden Bild I1 und Bild I2 sowie das am Messpunkt P aufgenommene Bild zusammen mit dreidimensionalen Daten im Datenspeicherbereich 18 abgespeichert. Der Messpunkt wird später erklärt.

Wenn das bewegliche Objekt sich zu P3 bewegt, werden elektrische Wellen vom Satelliten durch das Hindernis 20 abgeschnitten und Positionsmessdaten vom positionserkennenden Sensor 3 werden nicht eingegeben. Wenn beurteilt bzw. festgestellt wird, dass es keine Eingabe vom positionserkennenden Sensor 3 gibt, so schaltet die Arithmetikkontrolleinheit 14 auf das Verfahren zur Positionsmessung durch Berechnung mittels der Methode des Rückwärtsschnittes um.

Im Verfahrens- bzw. Prozessablauf bis P3 werden die Bildaufnahme durch das Bildaufnahmegerät 8 und die Nachverfolgung von Spurpunkten in den Bilddaten kontinuierlich durchgeführt.

Die Positionsdaten von P3 werden speziell durch die Methode des Rückwärtsschnittes berechnet und zwar basierend auf Positionsdaten jedes bereits erhaltenen Spurpunktes (A1, A2, A3, ...) und dem Feldwinkel von Spurpunkten (A1, A2, A3, ...). in dem an P3 aufgenommen Bild I3 und dem Azimuth- bzw. Drehwinkel von P3 (Azimuth- bzw. Drehwinkel und Feldwinkel in Bildaufnahmerichtung)(Schritt 05; siehe 7(B)).

Werden P1, P2, P3, .... und das beweglich Objekt 9 bewegt und der Bildaufnahmebereich verlagert, so werden neue Spurpunkte – einer nach dem anderen – auf dem aufgenommen Bild erzeugt. Beispielsweise und bezugnehmend auf 7(A) und 7(B) wird ein neuer Spurpunkt A4 in Bild I2 erzeugt und Spurpunkte A5 und A6 werden in Bild I3 erzeugt. Die Nachverfolgung wird für diese neu erzeugten Spurpunkte ebenfalls durchgeführt. (Schritt n-1). Des weiteren werden Positionsdaten nachfolgend mittels der Methode des Vorwärtsschnittes berechnet und gemessen.

Durch die Methode des Rückwärtsschnittes (sog. Resektion) wird P3 in einen bekannten Punkt umgewandelt bzw. als solchen angesehen. Basierend auf Positionsdaten von P3 und P2 und basierend auf Azimuth- bzw. Drehwinkeldaten von P3 und P2, die sich auf die neu erzeugten Spurpunkte beziehen, werden die Positionen der neu erzeugten Spurpunkte mittels der Methode des Vorwärtsschnittes berechnet (Schritt n).

Aus den Positionsdaten der Spurpunkte im Bild wird die Position Pn mittels der Methode des Rückwärtsschnittes berechnet und gemessen. Des weiteren werden, aus den Daten von P(n-1), der in einen bekannten Punkt umgewandelt wurde, und aus den Daten von Pn, die Positionen der neu erzeugten Spurpunkte mittels der Methode des Vorwärtsschnittes gemäß dem Bild berechnet und gemessen. Somit kann, selbst unter der Bedingung, dass elektrische Wellen von einem Satelliten nicht erhalten werden und die Positionsmessung von P durch den positionserkennenden Sensor 3 nicht durchgeführt werden kann, die Positionsmessung von P kontinuierlich erreicht werden, indem abwechselnd die Methode des Vorwärtsschnittes und des Rückwärtsschnittes durchgeführt wird.

Als nächstes, wenn das bewegliche Objekt den Punkt P6 erreicht, kann die elektrische Welle des Satelliten empfangen werden. Die Position von P6 wird durch den positionserkennenden Sensor 3 gemessen. Wenn die vom positionserkennenden Sensor 3 gemessenen Positionsdaten in die Arithmetikkontrolleinheit eingegeben werden, stellt die Arithmetikkontrolleinheit fest, dass Positionsdaten eingegeben wurden und die Berechnung mittels der Methode des Rückwärtsschnittes wird angehalten. Die vom Bildaufnahmegerät an P6 aufgenommenen Bilddaten, die aus den Bilddaten extrahierten Spurpunkte und die Azimuth- bzw. Drehwinkeldaten der extrahierten Spurpunkte werden mit den Positionsdaten von P6 verknüpft und im Datenspeicherbereich 18 abgespeichert.

Dementsprechend werden, während Positionsdaten vom positionserkennenden Sensor 3 eingegeben werden, die am positionserkennenden Sensor 3 gemessenen Ergebnisse als die Daten der Positionsmessung an P angenommen. Werden die Positionsdaten vom positionserkennenden Sensor 3 unterbrochen, so werden die mittels der Methode des Vorwärtsschnittes und der Methode des Rückwärtsschnittes berechneten Positionsdaten angenommen und die Position von P wird kontinuierlich ohne Unterbrechung gemessen.

Basierend auf der benötigten Anzahl nachverfolgter Spurpunkte wird die relative Orientierung bzw. Ausrichtung an den Spurpunkten als Passpunkte für Bilder durchgeführt, welche an zwei aufeinanderfolgenden Punkten, z.B. P2 und P3, aufgenommen bzw. gewonnen wurden und die Positionsdaten der Spurpunkte werden in ein Bild (Stereobild) umgewandelt, das dreidimensionale Daten enthält. Dann können aus dem Bild (Stereobild) Positionsdaten sowie Azimuth- bzw. Drehwinkeldaten für jeden Bildpunkt erhalten bzw. gewonnen werden, um andere Bilder zu erzeugen und der Rechenprozess kann mit höherer Geschwindigkeit durchgeführt werden (Schritt x). Das Stereobild, das bei P durch relative Orientierung erhalten wird, wird im Datenspeicherbereich abgespeichert.

Des weiteren werden, basierend auf den absoluten Daten des Bodenkoordinatensystems des GPS-Positionserkennenden Gerätes 7, welche an P1 und P2 erhalten wurden, dreidimensionale Daten jedes Bildes nachfolgend in Daten des Bodenkoordinatensystems umgewandelt (Schritt y).

Die an jedem Messpunkt aufgenommen Bilder können in Bilder umgewandelt werden, die dreidimensionale Daten des Bodenkoordinatensystems enthalten. Selbst wenn ein einziges GPS-Positionserkennendes Gerät 7 verwendet wird und wenn ein Bereich im Schatten liegt, in dem elektrische Wellen des Satelliten mitten im Messvorgang unterbrochen werden, wird die Positionsmessung nicht unterbrochen und eine große Menge kontinuierlicher dreidimensionaler Daten und Bildmaterial mit dreidimensionalen Daten kann erfasst werden (Schritt z).

In der obigen Beschreibung werden Bilder vom Hindernis auf der rechten Seite des beweglichen Objekt aufgenommen und die Positionsmessung von P durchgeführt. Im Falle, dass vom Hindernis auf der rechten Seite ein ausreichendes Bild nicht erfasst werden kann, um Spurpunkte zu erhalten, können die Bilder, die zu erfassen sind, auf der Bildverarbeitungsebene entsprechend gewählt werden, so dass Bilder vom Hindernis auf der linken Seite abhängig vom Zustand des Hindernisses erfasst werden.

Im Verfahrens- bzw. Prozessablauf von Schritt x zu Schritt z – wie oben angegeben – können das Bild, das an jedem Messpunkt im Prozessablauf bis Schritt n erhalten wird, sowie die auf P bezogenen Positionsdaten des Bildes einmalig im Datenspeicherbereich abgespeichert werden. Dann können die Daten mittels der Kommunikationskontrolleinheit 16 zu einem externen Computer bzw. usw. übertragen werden und am PC verarbeitet werden. Wenn der Prozessablauf von Schritt x zu Schritt z von einem externen PC usw.. ausgeführt, kann die Rechenlast auf der Arithmetikkontrolleinheit und der Speicherbedarf für den Datenspeicherbereich verringert werden. Als Ergebnis können mehr Messpunkte festgelegt werden und eine große Menge der Bilder mit dreidimensionalen Daten kann erfasst werden.

Die 9 und 10 zeigen jeweils andere Zustände des positionserkennenden Sensors 3.

Der positionserkennende Sensor 3 ist an dem beweglichen Objekt 9 angebracht, z.B. an einer Position mit gutem Überblick über die Umgebung, wie beispielsweise eine Position auf einem Dach eines Automobils.

Dar positionserkennende Sensor 3 ist mit einem Bildaufnahmegerät 8 und mit einem konischen Spiegel 23 ausgestattet, dessen zentrale Linie mit der optischen Achse des Bildaufnahmegerätes 8 ausgerichtet ist, so dass das Bild über den konischen Spiegel 23 aufgenommen werden kann. Da Bilder über den konischen Spiegel aufgenommen werden können, kann das Bildaufnahmegerät 8 Bilder im gesamten Umkreis aufnehmen. Die Bilddaten werden an die Einheit zur Vorbereitung der Datenaufbereitung 2 geschickt. Der Datenspeicherbereich hat ein Programm zur Korrektur von Verzerrungen. Die Arithmetikkontrolleinheit 14 korrigiert die Verzerrungen des so gesendeten Bildes und wandelt das Bild in ein Bild des kompletten Umfangsbereichs (Rundumsichts-Bild) ohne Verzerrung um, und dies Bild wird im Datenspeicherbereich 18 abgespeichert (siehe 3).

Auch für den Fall, in dem ein Bild des kompletten Umfangsbereiches durch einen konischen Spiegel 23 erfasst wird, d.h. durch einen Vollumfangsspiegel, ist die Vorgehensweise der Extraktion von Spurpunkten und die Nachverfolgung der Spurpunkte usw. dieselbe wie in der oben beschriebenen Ausführungsform.

Als Bildaufnahmegerät 8 kann ein kommerziell erhältliches Gerät zur Bildaufnahme des gesamten Umgebungsbereiches, z.B. eine CCD Kamera, verwendet werden. Das Bildaufnahmegerät 8 (CCD Kamera) wird unter dem konischen Spiegel 23 angebracht und erfasst Bilder über den Umfang, wie sie von dem konischen Spiegel 23 reflektiert werden. Die Position P, an der das Bild erfasst wird, wird von dem GPS-Positionserkennenden Gerät 7, das über oder in einem bekannten Abstand von dem konischen Spiegel 23 angebracht ist, erhalten bzw. ermittelt. Die Bewegungsrichtung kann aus Positionskoordinaten von zwei Punkten gewonnen werden, die von dem GPS-Positionserkennenden Gerät 7 erkannt wurden.


Anspruch[de]
Verfahren zur Aufbereitung dreidimensionaler Daten mit einem ersten Schritt, bei dem kontinuierlich digitale Bilder von Örtlichkeiten in der Umgebung während der Bewegung von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist, aufgenommen werden;

mit einem zweiten Schritt, bei dem Spurpunkte von einem an dem ersten Punkt erfassten Bild erzeugt werden und nachfolgend die Spurpunkte aus der Nachverfolgung der Punkte bestimmt werden, die aus den kontinuierlich aufgenommen Bildern erzeugt werden;

mit einem dritten Schritt, bei dem dreidimensionale Daten der Spurpunkte basierend auf dem Ergebnis der Orientierung der Spurpunkte an dem ersten Punkt und an dem zweiten Punkt sowie aus Positionsdaten des ersten Punktes und des zweiten Punktes gewonnen werden;

mit einem vierten Schritt, bei dem nachfolgend eine Position des dritten Punktes, d.h. eines unbekannten Punktes, basierend auf dem Ergebnis der Orientierung des Spurpunktes, der an dem dritten Punkt ermittelt wurde, und basierend auf dreidimensionalen Positionsdaten des Spurpunktes, gewonnen wird;

mit einem fünften Schritt, bei dem dreidimensionale Positionsdaten aus einem Bild gewonnen werden, das den Spurpunkt aus dem Ergebnis der Orientierung der Bilder enthält, welche die Spurpunkte an dem ersten Punkt und an dem zweiten Punkt enthalten, sowie aus den Positionsdaten an dem ersten Punkt und an dem zweiten Punkt gewonnen werden;

und mit einem sechsten Schritt, bei dem nachfolgend dreidimensionale Positionsdaten von Bildern gewonnen werden, die die Spurpunkte aus dem Ergebnis der Orientierung von Bildern enthalten, welche die Spurpunkte an dem zweiten Punkt und an dem dritten Punkt enthalten, sowie aus den Positionsdaten an dem zweiten Punkt und an dem dritten Punkt gewonnen werden.
Verfahren zur Aufbereitung dreidimensionaler Daten nach Anspruch 1, bei dem Positionsdaten durch eine GPS-Positions-erkennende Vorrichtung (7) gemessen werden und zumindest am ersten Punkt und am zweiten Punkt als bekannt herausgestellt werden. Verfahren zur Aufbereitung dreidimensionaler Daten nach Anspruch 1, bei dem Positionsdaten des Spurpunktes aus den bekannten Daten an dem ersten Punkt und dem zweiten Punkt mittels der Vorwärtsschnitt-Methode ermittelt werden und bei dem Positionsdaten des dritten Punktes aus dreidimensionalen Positionsdaten des Spurpunktes in dem Bild mittels der Rückwärtsschnitt-Methode ermittelt werden. Verfahren zur Aufbereitung dreidimensionaler Daten nach Anspruch 1, bei dem Bilder in einer Vielzahl von Richtungen kontinuierlich erfasst werden und bei dem die Spurpunkte in Bildern in zumindest einer Richtung erzeugt werden. Einrichtung zur Aufbereitung dreidimensionaler Daten mit:

einer Bildaufnahme-Vorrichtung (8) zur kontinuierlichen Aufnahme digitaler Bilder von Örtlichkeiten aus der Umgebung während eines Bewegungsvorgangs von einem ersten Punkt, der ein bekannter Punkt ist, über einen zweiten Punkt, der ein bekannter Punkt ist, zu einem dritten Punkt, der ein unbekannter Punkt ist;

mit einem Richtungssensor zum Erkennen der Bildaufnahme-Richtung der Bildaufnahme-Vorrichtung (8);

und mit einer Datenverarbeitungs- und Aufbereitungseinheit (2), die ausgestaltet ist, um einen Spurpunkt aus einem Bild zu erzeugen, das an dem ersten Punkt erfasst worden ist,

um nachfolgend den Spurpunkt durch die Nachverfolgung der Punkte, die in den kontinuierlich erfassten Bildern erzeugt werden, zu bestimmen, um dreidimensionale Positionsdaten der Spurpunkte aus dem Ergebnis der Orientierung des Spurpunktes an dem ersten Punkt und an dem zweiten Punkt sowie aus Positionsdaten des ersten Punktes und des zweiten Punktes zu bestimmen,

um nachfolgend den dritten Punkt, der ein unbekannter Punkt ist, aus dem Ergebnis der Orientierung der an dem dritten Punkt erfassten Spurpunkte und aus dreidimensionalen Positionsdaten der Spurpunkte zu erhalten, um dreidimensionale Positionsdaten von einem Bild, das die Spurpunkte enthält, aus dem Ergebnis der Orientierung eines Bildes zu erhalten, das die Spurpunkte enthält an dem ersten Punkt und an dem zweiten Punkt enthält und aus Positionsdaten des ersten Punktes und des zweiten Punktes zu erhalten,

und um nachfolgend dreidimensionale Positionsdaten von einem Bild, das die Spurpunkte enthält, aus dem Ergebnis der Orientierung von Bildern zu erhalten, die die Spurpunkte an dem zweiten Punkt und an dem dritten Punkt enthalten und aus Positionsdaten von dem zweiten Punkt und von dem dritten Punkt zu erhalten.
Einrichtung zur Aufbereitung dreidimensionaler Daten nach Anspruch 5, das zudem eine GPS-Positions-erkennende Vorrichtung (7) enthält, wobei die bekannten Daten von besagtem ersten Punkt und besagtem zweiten Punkt mittels der GPS-Positions-erkennenden Vorrichtung (7) gemessen werden. Einrichtung zur Aufbereitung dreidimensionaler Daten nach Anspruch 5, das einen vollständig umlaufenden Spiegel (23) und Bildkorrektur-Mittel enthält, wobei die Bildaufnahme-Vorrichtung in der Lage ist, Bilder in der gesamten Umlaufrichtung in horizontaler Richtung mittels des vollständig umlaufenden Spiegels (23) aufzunehmen und wobei die Bildkorrektur-Mittel die aufgenommenen Bilder korrigieren.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com