PatentDe  


Dokumentenidentifikation DE102006010607A1 14.09.2006
Titel Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen
Anmelder Siemens Corporate Research, Inc., Princeton, N.J., US
Erfinder Tu, Zhuowen, San Diego, Calif., US;
Barbu, Adrian, Plainsboro, N.J., US
Vertreter Patentanwälte Westphal Mussgnug & Partner, 78048 Villingen-Schwenningen
DE-Anmeldedatum 06.03.2006
DE-Aktenzeichen 102006010607
Offenlegungstag 14.09.2006
Veröffentlichungstag im Patentblatt 14.09.2006
IPC-Hauptklasse G06N 5/00(2006.01)A, F, I, 20060517, B, H, DE
IPC-Nebenklasse G06F 17/18(2006.01)A, L, I, 20060517, B, H, DE   G06T 1/00(2006.01)A, L, I, 20060517, B, H, DE   
Zusammenfassung Ein wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Berechnen von Zweiklassen- und Mehrklassen-Unterscheidungsmodellen wird offenbart. Im Lernstadium konstruiert der wahrscheinlichkeitstheoretische Verstärkungsbaum automatisch einen Baum, bei dem jeder Knoten eine Anzahl von schwachen Klassifizierern (z. B. Anschein, Kenntnis) zu einem starken Klassifizierer oder zu einer konditionalen späteren Wahrscheinlichkeit kombiniert. Der wahrscheinlichkeitstheoretische Verstärkungsbaum nähert die spätere Zielverteilung durch Datenerweiterung (z. B. Baumausdehnung) mittels einer Teilungs- und Eroberungsstrategie an. Im Teststadium wird die konditionale Wahrscheinlichkeit an jedem Baumknoten auf der Basis des gelernten Klassifizierers berechnet, der die Wahrscheinlichkeitsentwicklung in den Unterbäumen anleitet. Der oberste Knoten des Baums gibt daher die gesamte spätere Wahrscheinlichkeit aus, indem die Wahrscheinlichkeiten integriert werden, die von den Unterbäumen erhalten werden. Im Trainingsstadium wird ein Baum rekursiv konstruiert, bei dem jeder Baumknoten ein starker Klassifizierer ist. Der Eingangstrainingssatz wird gemäß dem gelernten Klassifizierer in zwei neue Sätze, einen linken und einen rechten, unterteilt. Jeder Satz wird dann verwendet, um den linken und rechten Unterbaum rekursiv zu trainieren.

Beschreibung[de]
Querverweis auf verwandte Anmeldung

Diese Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung 60/660,136 vom 9. März 2005, die hierin durch Bezugnahme vollständig aufgenommen ist.

Bereich der Erfindung

Die vorliegende Erfindung ist auf einen wahrscheinlichkeitstheoretischen Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen gerichtet, und spezieller auf einen wahrscheinlichkeitstheoretischen Verstärkungsbaum-Rahmen zum Berechnen von Zweiklassen- und Mehrklassen-Unterscheidungsmodellen.

Hintergrund der Erfindung

Die Aufgabe, allgemeine Objekte in natürlichen Szenen zu klassifizieren/erkennen, zu detektieren und in Clustern anzusammeln, ist eine extreme Herausforderung. Die Schwierigkeiten rühren von mehreren Ursachen her: große Abweichungen innerhalb einer Klasse und Ähnlichkeit zwischen verschiedenen Klassen, Artikulation und Bewegung, verschiedene Beleuchtungsbedingungen, Ausrichtungen/Betrachtungsrichtungen und komplexe Konfigurationen verschiedener Objekte. 1 zeigt mehrere verschiedene Bilder. Die erste Zeile 102 aus 1 zeigt einige Abbildungen von Gesichtern. Die übrigen Zeilen 104110 zeigen einige typische Bilder aus den Caltech 101-Objektkategorien. Einige der Objekte sind hochgradig nicht-rigide und einige der Objekte in derselben Kategorie besitzen nur eine geringe Ähnlichkeit zueinander. Für die Aufgabe der Klassifizierung ist ein Fachwissen auf sehr hohem Niveau notwendig, um verschiedene Beispiele einer Klasse in dieselbe Kategorie einzuordnen.

Das Problem des Erfassens einer allgemeinen Szene kann aus zwei Blickrichtungen betrachtet werden: Modellierung und Berechnung. Die Modellierung wendet sich dem Problem zu, wie die Statistiken allgemeiner Muster/Objekte gelernt/definiert werden. Die Berechnung greift das Rückschlussproblem an. Sei x ein Beispielbild und y seine Interpretation. Idealerweise werden die generativen Modelle p(x|y) für ein Muster erhalten, um die Statistiken für jedes Beispiel x zu messen. Leider befinden sich solche generativen Modelle oft nicht nur außerhalb der Reichweite, sondern sie erzeugen auch im Berechnungsstadium einen großen Rechenaufwand. Gesichter werden beispielsweise als relativ einfache Klasse für das Studium angesehen. Dennoch gibt es noch kein existierendes generatives Modell, das alle Variationen für ein Gesicht umfasst, wie Mehrfachdarstellung, Schatten, Ausdruck, Verdeckung und Frisur. Einige Beispielgesichter können in der ersten Zeile 102 in 1 betrachtet werden. Alternativ wird ein Unterscheidungsmodell p(y|x) direkt gelernt, bei dem y lediglich eine einfache Variable "ja" oder "nein" oder eine Klassenkennzeichnung ist.

Eine bekannte Technik, die als „AdaBoost" bezeichnet wird, und deren Varianten wurden auf viele Probleme bei der Vision und beim Maschinenlernen angewendet. AdaBoost nähert das spätere p(y|x) an, indem ein Satz von schwachen Klassifizierern ausgewählt und zu einem starken Klassifizierer kombiniert wird. Beim derzeitigen AdaBoost-Verfahren treten jedoch mehrere Probleme auf. Obwohl es sich asymptotisch der Zielverteilung annähert, muss es möglicherweise hunderte schwacher Klassifizierer auswählen. Dies erfordert einen riesigen Rechenaufwand. Zum zweiten wird die Reihenfolge, nach der die Merkmale im Trainingsstadium ausgewählt werden, nicht aufbewahrt. Die Reihenfolge eines Satzes von Merkmalen kann der Semantik auf dem hohen Niveau entsprechen und ist daher sehr wichtig für das Verständnis von Objekten/Mustern. Zum dritten kann das Neugewichtungs-Schema von AdaBoost dazu führen, dass Beispiele, die zuvor richtig klassifiziert wurden, anschließend wieder falsch klassifiziert werden. Obwohl die Ausdehnung von der Zweiklassen- zur Mehrklassen-Klassifizierung vorgeschlagen wurde, ist zum vierten das Lernen von schwachen Klassifizierern im Mehrklassen-Fall unter Verwendung der Ausgangscodierung schwieriger und hinsichtlich der Berechnung sehr aufwendig.

Ein anderes bekanntes Verfahren, das typischerweise als „AdaTree" bezeichnet wird, kombiniert AdaBoost mit einem Entscheidungsbaum. Das Hauptziel des AdaTree-Verfahrens liegt darin, das AdaBoost-Verfahren mittels Beschneidung zu beschleunigen. Das AdaTree-Verfahren lernt einen starken Klassifizierer durch Kombinieren eines Satzes von schwachen Klassifizierern zu einer Baumstruktur, aber es beschäftigt sich nicht mit der Merklassen-Klassifizierung.

Es existiert eine Anzahl von Ansätzen zum Behandeln der Objektklassifizierung und -detektion. Kaskadenansätze, die zusammen mit AdaBoost verwendet werden, haben sich bei der Detektion von seltenen Ereignissen als effektiv erwiesen. Das Kaskadenverfahren kann als Spezialfall des erfindungsgemäßen Verfahrens betrachtet werden. In der Kaskade wird eine Grenze derart ausgewählt, dass alle positiven Beispiele zur rechten Seite des Baums verschoben werden. Das Verschieben der positiven Beispiele nach rechts kann aber eine große, falsche positive Rate hervorrufen, insbesondere wenn die positiven und negativen Beispiele nur schwer zu trennen sind. Das erfindungsgemäße Verfahren teilt auf natürliche Weise die Trainingssätze in zwei Teile. In dem Fall, bei dem mehr negative Beispiele als positive Beispiele vorliegen, werden die meisten negativen Beispiele in Blattknoten in der Nähe der Spitze verschoben. Blätter im tiefen Baum fokussieren auf die Klassifizierung der positiven und negativen Beispiele, die schwer zu trennen sind.

Entscheidungsbäume wurden bei der Vision und der künstlichen Intelligenz weit verbreitet verwendet. Bei einem herkömmlichen Entscheidungsbaum ist jeder Knoten ein schwacher Entscheider und somit ist das Ergebnis an jedem Knoten eher zufällig. Im Gegensatz dazu ist bei der vorliegenden Erfindung jeder Baumknoten ein starker Entscheider und lernt eine Verteilung q(y|x). Andere Ansätze umfassen A*, generative Modelle, EM und Grammatik und Semantik. Es besteht eine Notwendigkeit für einen Rahmen, der geeignet ist, Unterscheidungsmodelle zur Verwendung in einer Mehrklassen-Klassifizierung, die nicht extrem rechenaufwendig ist, zu lernen.

Zusammenfassung der Erfindung

Die vorliegende Erfindung ist auf ein Verfahren zur Lokalisierung eines Objekts in einem Bild gerichtet. Ein wahrscheinlichkeitstheoretischer Verstärkungsbaum wird konstruiert, bei dem jeder Knoten eine Anzahl von schwachen Klassifizierern zu einem starken Klassifizierer oder zu einer konditionalen späteren Wahrscheinlichkeit kombiniert. Wenigstens ein Eingangsbild, das das zu lokalisierende Objekt enthält, wird entgegengenommen. Eine Begrenzungsbox im Eingangsbild wird auf der Basis der konditionalen späteren Wahrscheinlichkeit identifiziert, in der das Objekt liegen sollte. Ein Wahrscheinlichkeitswert für die Begrenzungsbox wird auf der Basis der Wahrscheinlichkeit berechnet, dass das Objekt in der Tat an dieser Stelle angeordnet ist. Begrenzungsboxen und Wahrscheinlichkeitswerte werden für verschiedene Stellen im Eingangsbild bestimmt. Die Begrenzungsbox mit der höchsten berechneten Wahrscheinlichkeit wird als die Stelle ausgewählt, an der sich das Objekt befindet.

Die vorliegende Erfindung ist auch auf ein Verfahren zum Detektieren eines Objekts in einem Bild gerichtet. Ein wahrscheinlichkeitstheoretischer Verstärkungsbaum wird konstruiert, bei dem jeder Knoten eine Anzahl von schwachen Klassifizierern zu einem starken Klassifizierer oder zu einer konditionalen späteren Wahrscheinlichkeit kombiniert. Wenigstens ein Eingangsbild wird entgegengenommen. Eine Begrenzungsbox in wenigstens einem Eingangsbild wird auf der Basis der konditionalen späteren Wahrscheinlichkeit identifiziert, in der das Objekt liegen soll. Ein Wahrscheinlichkeitswert für die Begrenzungsbox wird auf der Basis der Wahrscheinlichkeit berechnet, dass das Objekt in dem Bild angeordnet ist. Die Wahrscheinlichkeit wird mit einer vorbestimmten Grenze verglichen. Die Begrenzungsbox wird beibehalten, wenn die Wahrscheinlichkeit über der vorbestimmten Grenze liegt. Begrenzungsboxen und Wahrscheinlichkeitswerte werden für verschiedene Stellen im Eingangsbild bestimmt. Eine Bestimmung, ob das Objekt im Bild angeordnet ist, wird vorgenommen, wenn die Wahrscheinlichkeit für wenigstens eine Begrenzungsbox über der vorbestimmten Grenze liegt.

Die vorliegende Erfindung ist auch auf ein Verfahren zur Klassifizierung von Bildern von Objekten in verschiedene Bildkategorien gerichtet. Ein wahrscheinlichkeitstheoretischer Verstärkungsbaum wird rekursiv konstruiert, bei dem jeder Baumknoten ein starker Klassifizierer ist. Ein Entscheidungsmodell wird an der Spitze des Baums erhalten, und jede Ebene des Baums weist eine erweiterte Variable auf. Ein Eingangs-Trainingssatz wird gemäß einem gelernten Klassifizierer in zwei neue Sätze unterteilt. Die zwei neuen Sätze werden verwendet, um einen linken und einen rechten Unterbaum rekursiv zu trainieren, so dass die Clusterbildung automatisch auf hierarchische Weise durchgeführt wird. Eine geeignete Anzahl von Klassifizierungen wird auf der Basis der Anzahl von gebildeten Clustern ausgegeben.

Kurze Beschreibung der Zeichnungen

Bevorzugte Ausführungsformen der vorliegenden Erfindung werden unten unter Bezugnahme auf die begleitenden Zeichnungen detaillierter beschrieben, wobei gleiche Bezugsziffern gleiche Elemente bezeichnen.

1 zeigt Beispiele von Bildern von natürlichen Szenen und allgemeinen Objekten;

2 ist ein Blockdiagramm eines Systems für die Implementierung eines wahrscheinlichkeitstheoretischen Verstärkungsbaums gemäß der vorliegenden Erfindung;

3 skizziert ein Verfahren zum Trainieren eines Verstärkungsbaums gemäß der vorliegenden Erfindung;

4 zeigt ein Beispiel, wie ein wahrscheinlichkeitstheoretischer Verstärkungsbaum gelernt wird und wie Trainingsbeispiele gemäß der vorliegenden Erfindung aufgeteilt werden;

5 skizziert ein Verfahren zum Testen eines wahrscheinlichkeitstheoretischen Verstärkungsbaums gemäß der vorliegenden Erfindung;

6 zeigt ein Beispiel eines wahrscheinlichkeitstheoretischen Modells eines Baums gemäß der vorliegenden Erfindung;

7 skizziert ein Verfahren zum Trainieren eines wahrscheinlichkeitstheoretischen Mehrklassen-Verstärkungsbaums gemäß der vorliegenden Erfindung;

8 zeigt Histogramme von vier Objektbildern hinsichtlich der Intensität und drei Gabor-Filterergebnisse gemäß der vorliegenden Erfindung;

9 zeigt einige Beispielbilder aus einem Bildersatz und die Cluster, die gemäß der vorliegenden Erfindung gelernt wurden;

10 zeigt einige Cluster von Beispielbildern, die gemäß der vorliegenden Erfindung gebildet wurden;

11 zeigt ein unbewegtes Bild aus einem Eingangsvideo eines Herzens und die daraus resultierende Detektion der linken Herzkammer gemäß der vorliegenden Erfindung;

12 zeigt ein Beispiel der Lokalisierung einer linken Herzkammer in einem Ultraschallbild gemäß der vorliegenden Erfindung;

13 zeigt ein Beispiel einer Lokalisierung eines fötalen Kopfes in einem Ultraschallbild gemäß der vorliegenden Erfindung;

14 zeigt ein Beispiel der Lokalisierung eines fötalen Abdomen in einem Ultraschallbild gemäß der vorliegenden Erfindung;

15 zeigt ein Beispiel der Lokalisierung eines fötalen Oberschenkelknochens in einem Ultraschallbild gemäß der vorliegenden Erfindung;

16 zeigt ein Beispiel einer Detektion einer rektalen Röhre in einem berechneten Tomographiebild gemäß der vorliegenden Erfindung;

17 zeigt eine vergrößerte Ansicht der rektalen Röhre aus 16 gemäß der vorliegenden Erfindung; und

18 zeigt Beispiele der Detektion von Gesichtern gemäß der vorliegenden Erfindung.

Detaillierte Beschreibung

Die vorliegende Erfindung ist auf einen Rahmen eines wahrscheinlichkeitstheoretischen Verstärkungsbaums zum Berechnen von Zweiklassen- und Mehrklassen-Unterscheidungsmodellen gerichtet. Im Lernstadium konstruiert der wahrscheinlichkeitstheoretische Verstärkungsbaum automatisch einen Baum, bei dem jeder Knoten eine Anzahl von schwachen Klassifizierern (z.B. Anschein, Kenntnis) zu einem starken Klassifizierer oder zu einer konditionalen späteren Wahrscheinlichkeit kombiniert. Der wahrscheinlichkeitstheoretische Verstärkungsbaum nähert sich der späteren Zielverteilung mittels Datenverstärkung (z.B. Baumausdehnung) durch eine Teilungs- und Eroberungsstrategie an.

Im Teststadium wird die konditionale Wahrscheinlichkeit an jedem Baumknoten auf der Basis des gelernten Klassifizierers berechnet, der die Wahrscheinlichkeitsfortschreitung in den Unterbäumen anleitet. Der oberste Knoten des Baums gibt daher die gesamte spätere Wahrscheinlichkeit durch Integration aller Wahrscheinlichkeiten aus den Unterbäumen aus. Eine Clusterbildung ist in der Lernphase auch auf natürliche Weise eingebettet, und jeder Unterbaum repräsentiert ein Cluster einer bestimmten Ebene.

Im Trainingsstadium wird ein Baum rekursiv konstruiert, bei dem jeder Baumknoten ein starker Klassifizierer ist. Der Eingangstrainingssatz wird gemäß dem gelernten Klassifizierer in zwei neue Sätze, einen linken und einen rechten, unterteilt. Jeder Satz wird anschließend verwendet, um den linken und rechten Unterbaum rekursiv zu trainieren. Das Unterscheidungsmodell, das an der Spitze des Baums erhalten wird, nähert die spätere Zielverteilung durch Datenerweiterung an. Jedes Niveau des Baums ist eine erweiterte Variable. Die Clusterbildung ist intrinsisch im Lernstadium eingebettet, wobei die Cluster automatisch entdeckt und auf hierarchische Weise ausgebildet werden.

Für das Mehrklassen-Problem liegt das Ziel darin, ein Unterscheidungsmodell zu lernen, wobei die hierarchische Baumstruktur aufrechterhalten wird. Dies erfolgt durch Behandeln des Mehrklassen-Problems als ein spezielles Zweiklassen-Klassifizierungsproblem. An jedem Knoten wird einer jeden Klasse entweder eine positive oder negative Kennzeichnung zugeteilt, indem die gesamte Entropie minimiert wird. Durch diesen Vorgang werden die Mehrklassen- und Zweiklassen-Lernprozesse vereinheitlicht. Bei Mehrklassen werden Cluster wieder direkt ausgebildet.

Das allgemeine AdaBoost-Verfahren und seine Varianten lernen einen starken Klassifizierer durch Kombinieren eines Satzes von schwachen Klassifizierern

wobei ht(x) ein schwacher Klassifizierer ist. Die gesamte Fehlerrate
wird erwiesenermaßen durch
begrenzt, wobei wi die Wahrscheinlichkeit des Beispiels xi ist.

Wenn xi aus einer komplexen Verteilung stammt, nähert sich &egr;t schnell 0.5 an, und die Konvergenz wird langsam. Eine mögliche Lösung liegt in der Ausgestaltung von effektiveren schwachen Klassifizierern, die besser geeignet sind, die positiven von den negativen Beispielen zu trennen. Leider ist es oft schwierig, gute schwache Klassifizierer zu erhalten, und die Komplexität bei der Berechnung dieser Klassifizierer und Merkmale ist eine weitere Einschränkung. Einer der Schlüsselgedanken bei AdaBoost liegt darin, dass Beispiele, die falsch klassifiziert werden, beim nächsten Mal größere Gewichtungen erhalten. Aufgrund der aktualisierten Regelung und Normalisierung für Dt können zuvor richtig klassifizierte Beispiele anschließend wieder falsch klassifiziert werden und somit eine Sanktion erhalten. Deshalb werden schwache Klassifizierer nach einigen Schritten ineffektiv. Anstatt alle schwachen Klassifizierer zusammen zu einem einzelnen starken Klassifizierer zusammenzulegen, wird ein Teilungs- und Eroberungsansatz verwendet.

2 zeigt ein Blockdiagramm eines allgemeinen Systems zum Implementieren des wahrscheinlichkeitstheoretischen Verstärkungsbaum-Rahmens gemäß der vorliegenden Erfindung. Unter Verwendung einer Eingabevorrichtung 202 wie einer Kamera werden ein oder mehrere Bilder erhalten. Die Bilder werden durch einen Prozessor 204 entgegengenommen, der den wahrscheinlichkeitstheoretischen Verstärkungsbaum-Rahmen auf das Bild anwendet. Der wahrscheinlichkeitstheoretische Verstärkungsbaum-Rahmen kann verwendet werden, um eine Anzahl von Aufgaben zu erfüllen, wie im Folgenden detaillierter beschrieben wird. Beispielsweise kann der wahrscheinlichkeitstheoretische Verstärkungsbaum-Rahmen für die Objektklassifizierung oder die Objektdetektion verwendet werden. Trainingsbeispiele, die in der Datenbank 206 gespeichert sind, können verwendet werden, um Unterscheidungsmodelle zu lernen und zu berechnen. Das System nimmt die Eingangsbilder auf und gibt ein Klassifizierungsergebnis aus. Im Falle eines Zweiklassen-Problems ist das Ausgangsergebnis entweder positiv oder negativ. Bei einem Mehrklassen-Problem ist das Ausgangsergebnis die Klasse, zu der das Bild gehört. Die Klassifizierungsergebnisse werden anschließend auf dem Display 208 dargestellt.

3 skizziert ein Verfahren zum Trainieren eines Verstärkungsbaums gemäß der vorliegenden Erfindung. Zur Vereinfachung der Schreibweise werden die Wahrscheinlichkeiten, die durch jedes gelernte AdaBoost-Verfahren berechnet werden, folgendermaßen bezeichnet:

Der Algorithmus ist intuitiv. Er lernt rekursiv einen Baum. An jedem Knoten wird ein starker Klassifizierer unter Verwendung des Standard-Verstärkungsalgorithmus gelernt. Die Trainingsbeispiele werden anschließend unter Verwendung des gelernten Klassifizierers in zwei neue Sätze unterteilt, den linken und den rechten, die anschließend verwendet werden, um einen linken bzw. rechten Unterbaum zu trainieren. Die Variable &egr; wird verwendet, um zu einem gewissen Grad das Überanpassungsproblem zu steuern. Diese Beispiele, die in den Bereich von [12 – &egr;, 12 + &egr;] fallen, sind verwirrend und werden beim Training sowohl im linken als auch im rechten Unterbaum verwendet. Wenn &egr; = 12, werden alle Trainingsbeispiele in beide Unterbäume verschoben, und zwar mit Gewichtungen, die auf der Basis des starken Klassifizierers neu berechnet werden. Der wahrscheinlichkeitstheoretische Verstärkungsbaum wird anschließend einer Verstärkung ähnlich. Wenn &egr; = 0, wird jedes Beispiel entweder in den rechten oder den linken Baum verschoben. Deshalb werden positive und negative Beispiele nahezu sicher getrennt, falls keine identischen vorliegen. Aber das kann die Daten überanpassen.

Wenn ein Trainingssatz in zwei Teile unterteilt ist, ist die neue Fehlerrate

Es ist deutlich zu sehen, dass die Gleichung hält, wenn Ht = H und Hr = H. Im Allgemeinen verringert eine Reduzierung der Anzahl von Eingangsbeispielen die Komplexität des Problems, was zu einer besseren Entscheidungsgrenze führt.

Bei diesem Modell werden positive und negative Beispiele auf natürliche Weise in Untergruppen eingeteilt. 4 zeigt ein Beispiel, wie ein Baum gelernt wird und die Trainingsbeispiele unterteilt werden. Beispiele, die schwierig zu klassifizieren sind, werden weiter nach unten verschoben, was zu einer Ausdehnung des Baums führt. Die Clusterbildung von positiven und negativen Beispielen wird auf natürliche Weise durchgeführt. Eine Gruppe dient als Zusatzvariable für die andere Gruppe. Da jeder Baumknoten ein starker Klassifizierer ist, kann er Beispiele mit komplexer Verteilung bearbeiten. Es besteht auch eine Notwendigkeit für eine Vorfestlegung der Anzahl von Clustern. Die hierarchische Struktur des Baums ermöglicht das Berichterstatten der Cluster gemäß unterschiedlichen Unterscheidungsebenen.

Wie in 4 dargestellt ist, wird ein wahrscheinlichkeitstheoretischer Verstärkungsbaum aus einem synthetischen Datensatz 402 mit 2000 Punkten erzeugt. Schwache Klassifizierer sind Wahrscheinlichkeits-Klassifizierer hinsichtlich von Merkmalen wie Position und Abstand zu 2D-Linien. Die erste Ebene des Baums 404, 406 unterteilt den gesamten Satz in zwei Teile 408, 410. Der eine Satz 408 besitzt hauptsächlich dunkle Punkte, da sich diese vom Rest der Wolken entfernt befinden. Der Baum expandiert an den Teilen, wo positive und negative Beispiele durcheinander angeordnet sind. Die weiteren Niveaus 412418 dehnen sich aus dem Satz 410 aus, um die dunklen Punkte und die hellen Punkte aus diesem Satz besser zu trennen.

Das Teststadium stimmt mit dem Trainingsstadium überein. 5 liefert Details für die Berechung der angenäherten späteren Wahrscheinlichkeit p~(y|x). Am Fuße des Baums wird die Information der Nachkömmlinge gesammelt und es wird über eine gesamte angenäherte spätere Verteilung berichtet. Dieser Ansatz kann auch zu einem Klassifizierer umgewandelt werden, der schwierige Entscheidungen trifft. Nach der Berechnung q(+ 1|x) und q(– 1|x) kann eine Entscheidung getroffen werden, in den rechten oder linken Unterbaum zu gehen, indem q(+ 1|x) und q(– 1|x) verglichen werden. Die empirische Verteilung q^(y), die am Blattknoten des Baums erhalten wird, wird anschließend zurück zum Wurzelknoten des Baums geschickt. Der Vorteil der Verwendung der Wahrscheinlichkeit ist jedoch offensichtlich. Sobald ein wahrscheinlichkeitstheoretischer Verstärkungsbaum trainiert ist, kann p~(y|x) als Grenze verwendet werden, um einen Ausgleich zwischen Präzision und Widerruf zu schaffen.

6 zeigt ein Beispiel eines wahrscheinlichkeitstheoretischen Modells eines Baums gemäß der vorliegenden Erfindung. Jeder Baumknoten 602612 ist ein starker Klassifizierer. Die dunklen Knoten 620632 stellen Blattknoten dar. Ein komplexes Muster x wird mittels eines Erzeugungsprozesses generiert, der einen Satz versteckter Variablen besitzt. Der wahrscheinlichkeitstheoretische Verstärkungsbaum kann betrachtet werden, als besitze er einen ähnlichen Ansatz, indem er implizite Datenerweiterung durchführt. Das Ziel des Lernverfahrens ist es, die spätere Verteilung p(y|x) zu lernen. Jede Baumebene li ist eine erweiterte Variable.

Das exakte Modell gelernt werden kann, dann ist an einem Baumknoten

was bedeutet, dass das Modell q(li+1|li, ... l1, x) perfekt y vorhersagt und somit der Baum aufhört, sich auszudehnen. Die vergrößerten Variablen li entkoppeln y schrittweise von x, um eine bessere Vorhersage zu machen.

Ein Zweiklassen-Verstärkungsbaum-Ansatz wurde beschrieben. Traditionelle Verstärkungsansätze für Mehrklassen-Klassifizierung erfordern schwache Mehrklassen-Klassifizierer, die im Allgemeinen auf viel rechenintensivere Weise zu lernen und zu berechnen sind als schwache Zweiklassen-Klassifizierer. Dies ist insbesondere ein Problem, wenn die Anzahl von Klassen groß wird. Interessanterweise sind die unterschiedlichen Klassen von Mustern unter einem bestimmten Aspekt oft ähnlich zueinander. Beispielsweise kann ein Affe aus der Entfernung wie ein Pferd aussehen.

7 skizziert ein Verfahren zum Trainieren eines Mehrklassen-Verstärkungsbaums gemäß der vorliegenden Erfindung. Das Verfahren findet zunächst das optimale Merkmal, das die Mehrklassen-Muster in zwei Klassen unterteilt, und verwendet anschließend das vorherige Zweiklassen-Verstärkungsbaum-Verfahren, um die Klassifizierer zu lernen. In vielen Beispielen ist oft das erste Merkmal, das durch das Verstärkungsverfahren nach dem Transformieren von mehreren Klassen zu zwei Klassen ausgewählt wird, dasjenige, das für das Aufteilen der mehreren Klassen gewählt wird. Intuitiv unterstützt der Rest der Merkmale/schwachen Klassifizierer, die ausgewählt werden, das erste Merkmal, um eine stärkere Entscheidung zu treffen. Somit ist das Zweiklassen-Klassifizierungsproblem ein Spezialfall des Mehrklassen-Klassifizierungsproblems. Ähnliche Objekte unterschiedlicher Klassen werden gemäß den Merkmalen gegeneinander gruppiert. Mit fortlaufender Baumausdehnung werden sie schrittweise in Cluster gruppiert und getrennt. Die Ausdehnung hört auf, wenn jede Klasse erfolgreich abgetrennt wurde oder es zu wenige Trainingsbeispiele gibt.

Das Testverfahren für einen wahrscheinlichkeitstheoretischen Mehrklassen-Verstärkungsbaum ist annähernd dasselbe wie beim Zweiklassen-Problem. Der oberste Knoten des Baums integriert wieder alle Wahrscheinlichkeiten von den Unterbäumen und gibt eine gesamte spätere Wahrscheinlichkeit aus. Der Umfang des Problems ist O(log(n)) hinsichtlich der Anzahl von Klassen n. Dieser wahrscheinlichkeitstheoretische Mehrklassen-Verstärkungsbaum ist aufgrund der hierarchischen Struktur sehr effizient bei der Berechnung der Wahrscheinlichkeit. Dies ist wichtig, wenn wir hunderte oder sogar tausende von Klassen von Objekten erkennen wollen, was das Problem ist, mit dem sich menschliche Visionssysteme jeden Tag beschäftigen. Im schlimmsten Fall kann jeder Baumknoten durchlaufen werden. Dies ist in der Praxis jedoch selten der Fall.

Der wahrscheinlichkeitstheoretische Mehrklassen-Verstärkungsbaum kann gemäß der vorliegenden Erfindung für Objektklassifizierung verwendet werden. Ein Beispiel wird nun beschrieben. 8 zeigt Histogramme von vier Objektbildern hinsichtlich Intensität und drei Gabor-Filterergebnisse. Die Bilder stellen vier Kategorien dar: Bonsai 802, 804, Pumakörper 806, 808, Dollarnote 810, 812 und Ketsch 814, 816. Die Histogramme sind erwiesenermaßen robust gegenüber Verschiebung und Drehung und besitzen eine gute Unterscheidungskraft. Histogramme zu verschiedenen Filterantworten eines Bildes dienen als verschiedene Hinweise, die verwendet und kombiniert werden können, um eine Szenenanalyse und Objekterkennung durchzuführen. Um Unterscheidungsmodelle zu lernen, werden Momente bis hin zum dritten Grad für jedes Histogramm h(s) berechnet, um ein integrales Bild zur schnellen Berechnung verwenden zu können.

Das Ziel ist, ein Unterscheidungsmodell zu lernen, so dass es die spätere Verteilung auf der Kategoriekennzeichnung für jedes Eingangsbildgebiet ausgibt. Jedes Objektbild wird in der Größe an ein 80 × 80-Gebiet angepasst. Für jedes Bildgebiet werden die Abbildungen unter Verwendung eines Canny-Kantendetektors in drei Skalierungen, der Ausrichtung der Kanten und der Filterergebnisse durch zehn Gabor-Filter berechnet. Dies sind die Hinweisbilder für das Bildgebiet. Eintausend Rechtecke mit unterschiedlichen Seitenverhältnissen und Größen, die an verschiedenen Stellen ihren Mittelpunkt erhalten, werden in das 80 × 80-Bildgebiet gesetzt. Merkmale sind die Momente des Histogramms für jedes Rechteck auf jedem Hinweisbild. Der wahrscheinlichkeitstheoretische Mehrklassen-Verstärkungsbaum wählt anschließend die Merkmale aus und kombiniert sie, um die hierarchischen Klassifizierer zu bilden.

Zum Zwecke der Erläuterung werden 29 der Gesamtheit von 80 Kategorien im Bilddatensatz ausgewählt. Es gibt 41 Bilder für jede Kategorie und einige davon sind in 9 gezeigt. Die Bilder werden für Objekte unter verschiedenen Blickrichtungen und Belichtungen aufgenommen. Als nächstes werden 25 Bilder auf Zufallsbasis aus jeder Kategorie für das Training ausgewählt. 9 zeigt die Beispielbilder 902 und Cluster 904, die nach dem Lernen im Verstärkungsbaum ausgebildet sind. Der Ansatz der vorliegenden Erfindung ist dazu geeignet, automatisch die Ähnlichkeit innerhalb der Klasse, die Ähnlichkeit zwischen zwei Klassen und die Unähnlichkeit zu erkennen. Für die Bilder, die beim Training nicht ausgewählt werden, wird die Erkennungs-/Klassifizierungsrate getestet. Das Bild mit der höchsten Wahrscheinlichkeit wird als die richtige Erkennung angesehen. Die Tabelle 1 zeigt die Erkennungsrate für die verbleibenden 16 Bilder jeder Kategorie. Die durchschnittliche Erkennungsrate ist 76%.

Tabelle 1

Im nächsten Beispiel wird ein komplizierterer Bildsatz verwendet, der als Caltech 101-Bildkategorien bekannt ist. Einige der typischen Bilder sind in 1 dargestellt. Anstatt auf den Originalbildern zu arbeiten, werden alle Bilder gestutzt und auf eine Größe von 80 × 80 angepasst. Das Lernen und das Testen wird auf der Basis des gestutzten Bilds durchgeführt. Als nächstes werden 25 Bilder auf Zufallsbasis aus jeder Kategorie für das Training ausgewählt. 10 zeigt einige der Cluster, die nach dem Training ausgebildet sind. Die Cluster sind jedoch aufgrund der komplexen Objektkategorien spärlicher als diejenigen im anderen Bilddatensatz, der oben beschrieben wurde. Für jede Kategorie yj wird das Histogramm berechnet

wobei N ein Blattknoten und N(xi) der Blattknoten ist, an dem das Trainingsbeispiel xi schließlich angeordnet wird. Die Entropie von h(N) gibt Aufschluss darüber, wie eng die Proben jeder Kategorie im Baum liegen. Für Objekte, die in der Kategorie ähnlich zueinander sind, sollten enge Cluster gebildet werden. Objekte mit einer großen Abweichung werden unter dem Baum stärker gestreut. In der unten dargestellten Tabelle 2 liefert die dritte Spalte nach dem Kategorienamen das Entropiemaß für jede Kategorie.
Tabelle 2

Objektkategorien wie "Ying-Yang" besitzen eine sehr niedrige Entropie, und die Hintergrund-Kategorie besitzt wenig überraschend die höchste Abweichung und größte Entropie. Das Entropiemaß zeigt auf unbestimmte Weise an, wie schwierig es sein wird, jede Kategorie zu erkennen. Das Klassifizierungs-/Erkennungsergebnis ist in Tabelle 2 dargestellt. Die erste Spalte nach dem Kategorienamen, r1, ist die Erkennungsrate, wenn das Unterscheidungsmodell seine Kategorie-Identifikation als diejenige mit der höchsten Wahrscheinlichkeit ausgibt. Die durchschnittliche Erkennungsrate für r1 ist 20%. Eine Zufallsschätzung hätte eine Rate um 1%. Die zweite Spalte r2 ist die Klassifizierungsrate, wenn sich die Kategorie-Kennzeichnung unter der Auswahl der besten 10 befindet. Die Durchschnittsrate für r2 ist 40%.

Die vorliegende Erfindung kann sowohl für die Objektdetektion als auch die Klassifizierung verwendet werden. Einige Beispiele von Anwendungen, für die der wahrscheinlichkeitstheoretische Verstärkungsbaum vorteilhaft wäre, sind die Mehrfachdarstellungs-Bilddetektion, die Lokalisierung der linken Herzkammer und fötale Messungen (z.B. fötaler Kopf, Abdomen und Oberschenkelknochen). Die vorliegende Erfindung kann außerdem verwendet werden, um die detektierten Objekte zu klassifizieren. In dem Fall der linken Herzkammer kann beispielsweise die linke Herzkammer als lang gegenüber rund klassifiziert werden. Im Falle der fötalen Messungen können die Kopfmessungen von den Abdomenmessungen getrennt werden.

Der wahrscheinlichkeitstheoretische Verstärkungsbaum wird mit einem Trainingssatz trainiert, der etwa 2000 ausgerichtete positive Beispiele und 90000 negative Beispiele, alle von derselben Größe, enthält. Die negativen Beispiele enthalten auch verschobene Kopien der positiven Beispiele im Sinne einer besseren Lokalisierung. 11 zeigt eine Reihe von unbewegten Bildern 1102, die ein Eingangsvideo eines Herzens darstellen, sowie die daraus resultierenden Bilder 1104, bei denen die linke Herzkammer gemäß der vorliegenden Erfindung detektiert wird. Für die Detektion wird die linke Herzkammer im Eingangsbild 1102 an verschiedenen Stellen bei verschiedenen Drehwinkeln, Skalierungen und Seitenverhältnissen unter Verwendung einer Strategie gesucht, die von grob zu fein voranschreitet. Jede Suchstelle, Drehung, Skalierung und jedes Seitenverhältnis entspricht einer nicht notwendigerweise horizontalen Begrenzungsbox, in der sich die linke Herzkammer befinden sollte. Beispiele von Begrenzungsboxen sind 11061110. Der trainierte wahrscheinlichkeitstheoretische Verstärkungsbaum wird für eine jede solche Box eine Wahrscheinlichkeit ausgeben, und die Box mit der höchsten Wahrscheinlichkeit wird als die Stelle, Größe und Ausrichtung der linken Herzkammer ausgewählt. Ein Beispiel einer Lokalisierung einer linken Herzkammer 1202 ist in 12 dargestellt. Das "+s" zeigt die Stelle der endokardialen Wand 1204 an. Die Begrenzungsbox 1206 gibt die Stelle der linken Herzkammer an.

Dieselbe Strategie wird für die Lokalisierung des fötalen Kopfes, Abdomens und Oberschenkelknochens aus Ultraschalldaten angewendet. 1315 zeigen Beispiele der Lokalisierung des fötalen Kopfes 1302, des fötalen Abdomens 1402 und Oberschenkelknochens 1502 gemäß der vorliegenden Erfindung. Wie bei der linken Herzkammer wird auch der fötale Kopf, das Abdomen oder der Oberschenkelknochen im Eingangsbild an verschiedenen Stellen, mit verschiedenen Drehwinkeln, Skalierungen und Seitenverhältnissen unter Verwendung einer Strategie gesucht, die von grob nach fein voranschreitet. Jede Suchstelle, Drehung, Skalierung und jedes Seitenverhältnis entspricht einer Begrenzungsbox, in der sich der Kopf, das Abdomen oder der Oberschenkelknochen befinden sollte. Der trainierte wahrscheinlichkeitstheoretische Verstärkungsbaum wird für eine jede solche Box eine Wahrscheinlichkeit ermitteln, und die Box mit der höchsten Priorität wird als Stelle, Größe und Ausrichtung des Kopfes, Abdomens oder Oberschenkelknochens ausgewählt.

Der wahrscheinlichkeitstheoretische Verstärkungsbaum kann auch für die Detektion einer rektalen Röhre aus volumetrischen CT-Daten verwendet werden. Ein Beispiel wird nun unter Bezugnahme auf 16 und 17 beschrieben. Ein Satz von 7000 Merkmalen, die auf der Basis des Gradienten und der Krümmung hinsichtlich axialer Rotation invariant sind, wurde für das Training verwendet. Der Trainingssatz enthielt etwa 20000 Röhrensegmente als positive Beispiele und 250000 negative Beispiele.

Typischerweise würde die Suche nach den Röhren in den 3D-Daten eine Suche nach mehreren Stellen, 3D-Richtungen und Größen der Röhre beinhalten, was vom Rechenaufwand her unmöglich ist. Stattdessen wird eine Tensorenwahl-Strategie verwendet, um 3D-Stellen, Richtungen und Radien der Röhrenkandidaten vorzuschlagen. Der trainierte wahrscheinlichkeitstheoretische Verstärkungsbaum-Klassifizierer wird für jeden der Röhrenkandidaten berechnet, und diejenigen, deren Wahrscheinlichkeit größer ist als eine Grenze, werden als detektierte Röhren ausgewählt, wie durch die Röhren 1602 und 1702 in 16 und 17 dargestellt ist.

Wie oben erläutert, kann die vorliegende Erfindung auch für Gesichtsdetektion bei Mehrfachdarstellung verwendet werden. Der trainierte wahrscheinlichkeitstheoretische Verstärkungsbaum liefert verschiedene Beispiele von Ansichten von Gesichtern. 18 zeigt einige Beispiele von Ergebnissen der Gesichtsdetektion, die auf einem Satz frontal aufgenommener Bilder und Profilaufnahmen getestet wurden.

Nach der Beschreibung von Ausführungsformen für ein Verfahren zum Berechnen von Mehrklassen-Unterscheidungsmodellen unter Verwendung des Rahmens eines wahrscheinlichkeitstheoretischen Verstärkungsbaums wird angemerkt, dass Modifikationen und Veränderungen von einem Fachmann unter Berücksichtigung der obigen Lehren vorgenommen werden können. Es soll daher klar sein, dass Veränderungen in den speziellen Ausführungsformen der Erfindung, wie sie offenbart wurde, vorgenommen werden können, die innerhalb des Schutzbereichs der Erfindung liegen, wie er durch die beigefügten Ansprüche definiert ist. Nach der Beschreibung der Erfindung mit allen Details und Besonderheiten, wie es durch die Patentgesetze vorgeschrieben ist, wird der zu schützende und beanspruchte Gegenstand durch die beigefügten Ansprüche definiert.


Anspruch[de]
  1. Verfahren zur Lokalisierung eines Objekts in einem Bild mit den folgenden Schritten:

    a) Konstruieren eines wahrscheinlichkeitstheoretischen Verstärkungsbaums, bei dem jeder Knoten eine Anzahl von schwachen Klassifizierern zu einem starken Klassifizierer oder zu einer konditionalen späteren Wahrscheinlichkeit kombiniert;

    b) Entgegennehmen wenigstens eines Eingangsbilds, das das zu lokalisierende Objekt enthält;

    c) Identifizieren einer Begrenzungsbox im Eingangsbild, in der das Objekt liegen sollte, auf der Basis der konditionalen späteren Wahrscheinlichkeit;

    d) Berechnen eines Wahrscheinlichkeitswerts für die Begrenzungsbox auf der Basis der Wahrscheinlichkeit, dass das Objekt tatsächlich an dieser Stelle angeordnet ist;

    e) Wiederholen der Schritte c)–d) an verschiedenen Stellen im Eingangsbild; und

    f) Auswählen der Begrenzungsbox mit der höchsten berechneten Wahrscheinlichkeit als die Stelle, an der das Objekt sich befindet.
  2. Verfahren nach Anspruch 1, wobei Schritt e) außerdem die folgenden Schritte aufweist:

    Suchen des wenigstens einen Eingangsbilds bei verschiedenen Drehungen im Bild; und

    Suchen des wenigstens einen Eingangsbilds bei verschiedenen Seitenverhältnissen im Bild.
  3. Verfahren nach Anspruch 1, wobei die schwachen Klassifizierer Merkmale des Objekts repräsentieren.
  4. Verfahren nach Anspruch 1, wobei das Objekt eine anatomische Struktur ist.
  5. Verfahren nach Anspruch 4, wobei die anatomische Struktur eine linke Herzkammer ist.
  6. Verfahren nach Anspruch 4, wobei die anatomische Struktur ein fötaler Kopf ist.
  7. Verfahren nach Anspruch 4, wobei die anatomische Struktur ein fötales Abdomen ist.
  8. Verfahren nach Anspruch 4, wobei die anatomische Struktur ein fötaler Oberschenkelknochen ist.
  9. Verfahren nach Anspruch 4, wobei die anatomische Struktur ein Gesicht ist.
  10. Verfahren nach Anspruch 4, wobei die anatomische Struktur eine rektale Röhre ist.
  11. Verfahren zum Detektieren eines Objekts in einem Bild mit den folgenden Schritten:

    a) Konstruieren eines wahrscheinlichkeitstheoretischen Verstärkungsbaums, bei dem jeder Knoten eine Anzahl von schwachen Klassifizieren zu einem starken Klassifizierer oder zu einer konditionalen späteren Wahrscheinlichkeit kombiniert;

    b) Entgegennehmen wenigstens eines Eingangsbilds;

    c) Identifizieren einer Begrenzungsbox in wenigstens einem Eingangsbild, in der das Objekt liegen soll, auf der Basis der konditionalen späteren Wahrscheinlichkeit;

    d) Berechnen eines Wahrscheinlichkeitswerts für die Begrenzungsbox auf der Basis der Wahrscheinlichkeit, dass das Objekt sich im Bild befindet;

    e) Vergleichen der Wahrscheinlichkeit mit einer vorbestimmten Grenze;

    f) Aufrechterhalten der Begrenzungsbox, wenn die Wahrscheinlichkeit über der vorbestimmten Grenze liegt;

    g) Wiederholen der Schritte c)–f) an verschiedenen Stellen im Bild; und

    h) Bestimmen, dass das Objekt sich im Bild befindet, wenn die Wahrscheinlichkeit für wenigstens eine Begrenzungsbox über der vorbestimmten Grenze liegt.
  12. Verfahren nach Anspruch 11, wobei Schritt g) außerdem die folgenden Schritte aufweist:

    Suchen des wenigstens einen Eingangsbilds bei verschiedenen Drehungen im Bild; und

    Suchen des wenigstens einen Eingangsbilds bei verschiedenen Seitenverhältnissen im Bild.
  13. Verfahren nach Anspruch 12, wobei das Suchen auf eine Weise durchgeführt wird, die von grob zu fein voranschreitet.
  14. Verfahren nach Anspruch 11, wobei die schwachen Klassifizierer Merkmale des Objekts repräsentieren.
  15. Verfahren nach Anspruch 11, wobei das Objekt eine anatomische Struktur ist.
  16. Verfahren nach Anspruch 15, wobei die anatomische Struktur eine linke Herzkammer ist.
  17. Verfahren nach Anspruch 15, wobei die anatomische Struktur ein fötaler Kopf ist.
  18. Verfahren nach Anspruch 15, wobei die anatomische Struktur ein fötales Abdomen ist.
  19. Verfahren nach Anspruch 15, wobei die anatomische Struktur ein fötaler Oberschenkelknochen ist.
  20. Verfahren nach Anspruch 15, wobei die anatomische Struktur ein Gesicht ist.
  21. Verfahren nach Anspruch 15, wobei die anatomische Struktur eine rektale Röhre ist.
  22. Verfahren zum Klassifizieren von Bildern von Objekten in verschiedene Bildkategorien mit den folgenden Schritten:

    rekursives Konstruieren eines wahrscheinlichkeitstheoretischen Verstärkungsbaums, bei dem jeder Baumknoten ein starker Klassifizierer ist, wobei an der Spitze des Baums ein Unterscheidungsmodell erhalten wird und jede Ebene des Baums eine erweiterte Variable aufweist;

    Unterteilen eines Eingangstrainingssatzes in zwei neue Sätze gemäß einem gelernten Klassifizierer;

    Verwenden der beiden neuen Sätze, um einen linken und einen rechten Unterbaum rekursiv zu trainieren, wobei die Clusterbildung automatisch auf hierarchische Weise erfolgt; und

    Ausgeben einer geeigneten Anzahl von Klassifizierungen auf der Basis der Anzahl von gebildeten Clustern.
  23. Verfahren nach Anspruch 22, wobei der wahrscheinlichkeitstheoretische Baum ein Zweiklassen-Problem löst.
  24. Verfahren nach Anspruch 22, wobei der Schritt des Ausgebens einer geeigneten Anzahl von Klassifizierungen eine positive Klasse und eine negative Klasse aufweist.
  25. Verfahren nach Anspruch 22, wobei der wahrscheinlichkeitstheoretische Baum ein Mehrklassen-Problem löst.
  26. Verfahren nach Anspruch 25, wobei der Schritt des Ausgebens einer geeigneten Anzahl von Klassifizierungen mehrere Kategorien aufweist.
  27. Verfahren nach Anspruch 22, wobei das Objekt eine anatomische Struktur ist.
  28. Verfahren nach Anspruch 27, wobei die anatomische Struktur eine linke Herzkammer ist.
  29. Verfahren nach Anspruch 27, wobei die anatomische Struktur ein fötaler Kopf ist.
  30. Verfahren nach Anspruch 27, wobei die anatomische Struktur ein fötales Abdomen ist.
  31. Verfahren nach Anspruch 27, wobei die anatomische Struktur ein fötaler Oberschenkelknochen ist.
  32. Verfahren nach Anspruch 27, wobei die anatomische Struktur ein Gesicht ist.
  33. Verfahren nach Anspruch 27, wobei die anatomische Struktur eine rektale Röhre ist.
Es folgen 10 Blatt Zeichnungen






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com