PatentDe  


Dokumentenidentifikation DE102007029630A1 03.01.2008
Titel Systeme und Verfahren zum Erfassen von Objektbildern
Anmelder MediaTek Inc., Hsin-Chu, TW
Erfinder Chuang, Cheng-Te, Hsinchu, TW;
Chang, Yu-Chung, Taipei, TW;
Chen, Chong-Che, Banciau, Taipei, TW
Vertreter Patentanwälte Kewitz & Kollegen Partnerschaft, 60325 Frankfurt
DE-Anmeldedatum 26.06.2007
DE-Aktenzeichen 102007029630
Offenlegungstag 03.01.2008
Veröffentlichungstag im Patentblatt 03.01.2008
IPC-Hauptklasse H04N 1/00(2006.01)A, F, I, 20070626, B, H, DE
IPC-Nebenklasse H04N 1/40(2006.01)A, L, I, 20070626, B, H, DE   H04M 1/247(2006.01)A, L, I, 20070626, B, H, DE   H04M 1/00(2006.01)A, L, I, 20070626, B, H, DE   
IPC additional class H04N 101/00  (2006.01)  A,  L,  N,  20070626,  B,  H,  DE
Zusammenfassung Die Erfindung betrifft ein Verfahren zum Erzeugen eines Bildobjekts zur Ausführung durch ein mobiles elektronisches Gerät, mit den nachfolgend angeführten Schritten. Das mobile elektronische Gerät umfasst mehrere Auslöser- bzw. Verschlussobjekte und jedes Auslöserobjekt entspricht einem Orientierungstyp des erfassten Bilds. Ein Signal, das durch eines der Auslöserobjekte erzeugt wurde, wird detektiert. Ein Orientierungstyp wird in Entsprechung zu dem Auslöserobjekt bestimmt, welches das Signal erzeugt. Das Bildobjekt wird gemeinsam mit dem so bestimmten Orientierungstyp gespeichert.

Beschreibung[de]
Querverweis auf Mitglieder der Patentfamilie

Die vorliegende Erfindung beansprucht die Priorität der vorläufigen US-Patentanmeldung mit dem Titel „Systems and Methods for Capturing Images of Objects", Aktenzeichen 60/806,011, mit Anmeldetag vom 28. Juni 2006, deren Inhalt hiermit im Wege der Bezugnahme ausdrücklich mit aufgenommen sei.

Hintergrund der Erfindung

Die Erfindung betrifft die Erzeugung von digitalen Bildern und betrifft insbesondere Systeme und Verfahren zur Bestimmung einer Bildorientierung, wenn scharf eingestellte Objekte erfasst werden.

Mobile elektronische Geräte, wie beispielsweise Handys, PDAs (Personal Digital Assistants) oder vergleichbare Geräte, sind typischer Weise mit eingebauten Kameramodulen ausgestattet, die Objektive, Bildsensormodule, Bildsignalprozessoren (ISPs) und so weiter, enthalten, um Bilder von Objekten, wie beispielsweise Festbildern oder Bewegbildern bzw. Videoframes zu erfassen, die scharf eingestellten Objekten entsprechen (beispielsweise Menschen, Tieren, Pflanzen, Bergen, Steinen oder dergleichen). Das mobile elektronische Gerät kann zum Scharfstellen der zu erfassenden Objekte vertikal oder horizontal gehalten werden. Mobile elektronische Geräte sind typischer Weise mit Gyrosensoren ausgestattet, um die Orientierung zu detektieren, in der das mobile elektronische Gerät gehalten wird, beispielsweise vertikal oder horizontal, so dass die Kosten für die Hardware höher sind.

Zusammenfassung

Erfindungsgemäß werden Verfahren zum Erfassen von Objektbildern bereitgestellt. Ein Ausführungsbeispiel für ein Verfahren zum Erzeugen eines Bildobjekts, das von einem mobilen elektronischen Gerät ausgeführt wird, umfasst die nachfolgend angeführten Schritte. Das mobile elektronische Gerät umfasst ein erstes Auslöser- bzw. Verschlussobjekt (Shutter Object) und ein zweites Auslöser- bzw. Verschlussobjekt. Ein Signal wird detektiert. Es wird bestimmt, ob das Signal von dem ersten Auslöserobjekt oder dem zweiten Auslöserobjekt erzeugt wurde. Ein erster Orientierungstyp wird bestimmt, wenn das Signal von dem ersten Auslöserobjekt erzeugt wurde. Bin zweiter Orientierungstyp wird bestimmt, wenn das Signal von dem zweiten Auslöserobjekt erzeugt wurde. Das Bildobjekt mit dem so bestimmten Orientierungstyp wird abgespeichert.

Erfindungsgemäß werden auch Systeme zum Erfassen von Objektbildern bereitgestellt. Ein Ausführungsbeispiel eines Systems umfasst ein erstes Auslöser- bzw. Verschlussobjekt, ein zweites Auslöser- bzw. Verschlussobjekt (Shutter Object) und einen mit diesen zusammenwirkenden Prozessor. Der Prozessor, der mit dem ersten und zweiten Auslöserobjekt zusammenwirkt, detektiert ein Signal, bestimmt, ob das Signal von dem ersten Auslöserobjekt oder dem zweiten Auslöserobjekt erzeugt wurde, bestimmt einen ersten Orientierungstyp, wenn das Signal von dem ersten Auslöserobjekt erzeugt wurde, bestimmt einen zweiten Orientierungstyp, wenn das Signal von dem zweiten Auslöserobjekt erzeugt wurde, und speichert das Bildobjekt mit dem so bestimmten Orientierungstyp.

Das Bildobjekt soll in Antwort bzw. Entsprechung zu dem gespeicherten Orientierungstyp angezeigt werden können.

Figurenübersicht

Die Erfindung kann vollständiger durch Studium der nachfolgenden ausführlichen Beschreibung und Ausführungsbeispiele anhand der beigefügten Zeichnungen verstanden werden. Es zeigen:

1 eine schematische Darstellung einer Hardwareumgebung zur Anwendung bei einem mobilen elektronischen Gerät;

2 die Rückseite eines Ausführungsbeispiels eines mobilen elektronischen Geräts;

3a bis 6b schematische Darstellungen, die Ausführungsbeispiele für die Anordnung eines Auslöser- bzw. Verschlussobjekts darstellen;

7a und 7b schematische Darstellungen der Rückseite eines Ausführungsbeispiels eines mobilen elektronischen Geräts;

8 ein Flussdiagramm, das ein Ausführungsbeispiel für ein Verfahren zum Erfassen von Objektbildern darstellt;

9a und 9b schematische Darstellungen, die jeweils verwendete Tabellen darstellen;

10a bis 10h schematische Darstellungen, die die Abbildung zwischen den gespeicherten Bildobjekten und Darstellungen auf einer Anzeigeeinrichtung darstellen;

11 ein Flussdiagramm, das ein Ausführungsbeispiel für ein Verfahren zum Anzeigen von Bildobjekten darstellt;

12 bis 15 schematische Darstellungen, die jeweils die Erfassung eines Bildes mit Hilfe eines Handys und die Anzeige des erfassten Bildes der Person mit Hilfe einer externen Anzeige darstellen;

16a bis 16d schematische Darstellungen, welche die Einstellung einer Richtung darstellen, wie diese von einer Icon-Anzeige unter verschiedenen Bedingungen angezeigt wird, bevor ein Wolkenkratzer erfasst wird;

17 ein Flussdiagramm, das ein Ausführungsbeispiel für ein Verfahren zum Erfassen von Bildern von Objekten darstellt;

18 eine schematische Darstellung, die eine Tabelle enthält;

19 eine schematische Darstellung eines Ausführungsbeispiels einer Pipeline zur Videokodierung;

20 ein Flussdiagramm, das ein Ausführungsbeispiel einer Pufferspeicher-Schreibprozedur zum Schreiben eines erfassten Bildes in einen Frame-Pufferspeicher darstellt;

21 eine schematische Darstellung eines Bild-DMA-Controllers, der Pixelwerte eines erfassten Bildes von einem Bildsensor in einen Frame-Pufferspeicher unter Verwendung einer Pufferspeicher-Schreibprozedur gemäß der 20 schreibt;

22 ein Flussdiagramm, das ein Ausführungsbeispiel einer Pufferspeicher-Schreibprozedur zum Schreiben eines erfassten Bildes in einen Frame-Pufferspeicher darstellt;

23 eine schematische Darstellung eines Bild-DMA-Controllers, der Pixelwerte von einem erfassten Bild von einem Bildsensor in einen Frame-Pufferspeicher unter Verwendung einer Pufferspeicher-Schreibprozedur gemäß der 22 schreibt;

24 eine schematische Darstellung eines Ausführungsbeispiels einer Pipeline zur Videokodierung;

25a und 25b Flussdiagramme, die ein Ausführungsbeispiel einer Pufferspeicher-Leseprozedur zum Auslesen eines erfassten Bildes aus einem Frame-Pufferspeicher darstellen;

26a und 26b Flussdiagramme, die ein Ausführungsbeispiel eines Pufferspeicher-Leseprozedur zum Auslesen von einem erfassten Bild aus einem Frame-Pufferspeicher darstellen;

27 eine schematische Darstellung eines Videokodierers, der Pixelwerte eines erfassten Bildes aus einem Frame-Pufferspeicher ausliest und einen kodierten Videostream erzeugt; und

28 und 29 schematische Darstellungen von Ausführungsbeispielen für Pipelines zur Videokodierung.

Ausführliche Beschreibung

Erfindungsgemäß werden Verfahren zum Erfassen von Bildern von Objekten bereitgestellt, die in mobilen elektronischen Geräten eingesetzt werden, beispielsweise Handys, PDAs und dergleichen. Die 1 ist eine schematische Darstellung einer Hardwareumgebung zur Anwendung bei einem mobilen elektronischen Gerät 100, das im Wesentlichen ein Datenübertragungssystem 1301, ein Mikrofon 1302, einen Lautsprecher 1303, eine Antenne 1304, einen Prozessor 1305, einen Speicher 1306, ein Bildsensormodul 1307, ein Objektiv bzw. eine Linse 1308, einen Bildsensor 1309, einen Sensorcontroller und Bildprozessor 1310, einen Bildkodierer 1312, einen Sensorbildschirm-Controller 1320 (Touch Panel Controller) sowie einen Tastaturfeld-Controller 1330 (Key Pad Controller) umfasst. Das Datenübertragungssystem 1301 tauscht Daten mit einem entfernten mobilen elektronischen Gerät über die Antenne 1304 aus, wenn eine Verbindung zu einem zellularen Netzwerk besteht, beispielsweise einem GSM-System (Global System for Mobile Communications), einem GPRS-System (General Packet Radio Service), einem EDGE-System (Enhanced Data Rates for Global Evolution), einem CDMA-System (Code Division Multiple Access), einem WCDMA-System (Wideband Code Division Multiple Access) oder einem CSD-System (Circuit Switched Data) oder einem vergleichbaren System. Der Prozessor 1303 verbindet mit dem Bildkodierer 1312, dem Sensorbildschirm-Controller 1320, der Anzeigeeinrichtung 1314, dem Speicher 1306, dem Speichermedium 1313 und dem Tastaturfeld-Controller 1330, und zwar über verschiedene Busarchitekturen.

Das Bildsensormodul 1307, welches Linsen bzw. ein Objektiv 1308 und den Bildsensor 1309 umfasst, und der Sensorcontroller und Bildprozessor 1310 sowie der Bildkodierer 1312 sorgen für die Funktion, dass ein Bildobjekt erzeugt werden kann. Das Bildsensormodul 1307 kann CCD-Bildsensoren (Charged Coupled Device), CMOS-Bildsensoren (Complementary Metal Oxide Semiconductor) oder vergleichbare Bildsensoren enthalten, um die Lichtintensität in Form von unterschiedlichen Ladungsgrößen aufzuzeichnen. Um die von dem Bildsensormodul 1307 ausgegebenen Inhalte in ein digitales Format zu wandeln, quantifiziert der Bildsensor und Bildprozessor 1310 die variablen Ladungsgrößen in diskrete Farbwerte. Ein Bitmuster-Bild (Bitmap-Image) enthält eine Mehrzahl von Pixeldaten, die von dem Sensorcontroller und Bildprozessor 1310 mit einer vorgegebenen Auflösung quantifiziert werden, beispielsweise 640×480, 1024×768 und so weiter. Die quantifizierten Bitmuster-Bilder können außerdem in ein bekanntes Format gewandelt werden, beispielsweise JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format) oder dergleichen, und zwar mit Hilfe des Bildkodierers 1312, um mehrere komprimierte Festbilder zu erzeugen, beispielsweise JPEG- oder GIF-Bilder oder dergleichen. Bei dem Bildkodierer 1312 kann es sich um einen Videokodierer handeln, um eine Serie der quantifizierten Bitmuster-Bilder in eine Serie von Videoframes zu komprimieren und zu ordnen, beispielsweise in MPEG-1-Frames, MPEG-2-Frames, MPEG-4-Frames, H.263-Frames oder H.264-I-, P- und B-Frames.

Die von dem Bildkodierer 1312 erzeugten Festbilder und/oder Videoframes können in einem Speicher 1306 gespeichert werden, beispielsweise in einem DRAM-Speicher (dynamischer Speicher), einem SDRAM-Speicher (Synchronous DRAM-Speicher), einem Flash-Speicher oder dergleichen, oder bei dem Speichermedium 1313 kann es sich beispielsweise um einen Kompaktflashspeicher (CF), einen Memory Stick (MS), ein Smart Media (SM) oder um eine SD-Speicherkarte oder dergleichen handeln. Die erzeugten Festbilder und/oder Videoframes können auf der Anzeigeeinrichtung 1314 angezeigt werden, beispielsweise einer farbigen LCD-Anzeige, insbesondere CSTN-Anzeige (Color Super-Twisted Nematic Display), einer TFT-LCD-Anzeige, einer OLED-Anzeige (Organic Light-Emitting Diode) oder dergleichen.

Nutzer können das mobile elektronische Gerät 100 ausrichten, um Bilder von Objekten, die scharf eingestellten Objekten entsprechen, zu erfassen, und zwar durch Betätigen von Softkeys 1321 und 1322 auf einem berührungsempfindlichen Feld (Touch Panel) (4a), von Hardware-Tasten auf einem Tastaturfeld 1331 oder eines seitlichen Auslöserknopfes 1332 (3a). Nach Detektieren eines Auslöser- oder Aufzeichnungssignals durch den Sensorfeld-Controller 1320 oder den Tastaturfeld-Controller 1330, die anzeigen, dass ein bestimmter Softkey 1321 oder 1322 auf einem berührungsempfindlichen Feld 1323, eine Hardware-Taste auf dem Tastaturfeld 1331 oder ein Auslöserknopf 1332 angeklickt oder betätigt wurde, kann der Prozessor 1305 verschiedene Kameramechanismen steuern, beispielsweise einen Autofokusmotor, einen Verschlussmotor und/oder einen Blendenmotor (nicht gezeigt), den Sensorcontroller und Bildprozessor 1310 und den Bildkodierer 1312, um Bilder von Objekten zu erfassen. Die 2 zeigt die Rückseite eines Ausführungsbeispiels eines mobilen elektronischen Geräts 100, das die Antenne 1304 und ein Kameraobjektiv bzw. eine Kameralinse 1308 aufweist. Objekte, die mit Hilfe des Kameraobjektives 1308 scharf eingestellt werden, werden nach Detektion des beschriebenen Auslöser- oder Aufzeichnungssignals erfasst und in Bildobjekte transformiert. Hardware-Tasten auf dem Tastaturfeld 1331, der Auslöserknopf 1332 und die Softkeys 1321 und 1322 auf dem berührungsempfindlichen Feld 1323, welche die Auslöser- oder Aufzeichnungssignale erzeugen können, werden nachfolgend als Auslöserobjekte (Shutter Objects) bezeichnet.

Bei gewissen Ausführungsbeispielen sind zumindest zwei Verschluss- bzw. Auslöserobjekte zum Erfassen von Bildern von Objekten vorgesehen, beispielsweise von Festbildern und Videoframes, und wird dann, wenn ein Auslöser- oder Aufzeichnungssignal detektiert wird, ein Orientierungstyp in Entsprechung zu dem Auslöserobjekt, das das Auslöser- oder Aufzeichnungssignal erzeugt, bestimmt und werden die erzeugten Bildobjekte gemeinsam mit dem so bestimmten Orientierungstyp abgespeichert, so dass das erzeugte Bildobjekt in Reaktion bzw. Entsprechung zu dem so bestimmten Orientierungstyp angezeigt werden kann.

Nachfolgend werden einige Beispiele für die Anordnung von Auslöserobjekten erläutert. Die 3a und 3b sind schematische Darstellungen, die Ausführungsbeispiele für die Anordnung von Auslöserobjekten darstellen. Eine Hardware-Auslösertaste 310 auf einem Tastaturfeld (beispielsweise 1331 gemäß der 1) ist auf dem vorderseitigen Bedienfeld eines mobilen elektronischen Geräts vorgesehen und ein Auslöserknopf 1332 ist auf einer Seitenfläche (beispielsweise der rechten Seitenfläche) des mobilen elektronischen Geräts vorgesehen. Eine Anzeigeeinrichtung (beispielsweise 1314 gemäß der 1) oder ein Sensorbildschirm (beispielsweise 1323 gemäß der 1) können Bilder, die von dem Bildsensormodul (beispielsweise 1307 gemäß der 1) erzeugt werden, in dem Vorschaubereich W300 kontinuierlich anzeigen, was das Scharfstellen von gewissen Objekten erleichtert. Gemäß der 1 kann ein Benutzer das mobile elektronische Gerät vertikal halten, um gewisse zu erfassende Objekte scharf einzustellen, und wird dann, wenn die Hardware-Auslösertaste 310 mit einem Daumen niedergedrückt wird, ein Bildobjekt, das den scharf eingestellten Objekten entspricht, erzeugt und in einem Speicher (beispielsweise 1306 gemäß der 1) oder einem Speichermedium (beispielsweise 1313 gemäß der 1) gespeichert. Gemäß der 3b kann ein Benutzer das mobile elektronische Geräte horizontal halten, um gewisse Objekte scharf einzustellen, und wird dann, wenn der Auslöserknopf 1332 durch einen Zeigefinger niedergedrückt wird, ein Bildobjekt, das den scharf eingestellten Objekten entspricht, erzeugt und abgespeichert.

Die 4a und 4b sind schematische Darstellungen, die Ausführungsbeispiele für die Anordnung von Auslöserobjekten darstellen. Zwei Softkeys 1321 und 1322 werden auf einem Sensorbildschirm (beispielsweise 1322 gemäß der 1) eines mobilen elektronischen Geräts angezeigt. Der Softkey 1321 zeigt einen Icon an, der anzeigt, dass man vorzugsweise den Softkey 1321 anklicken sollte, um ein Bild der scharf eingestellten Objekte zu erfassen, wenn das mobile elektronische Gerät vertikal ausgerichtet ist. Alternativ zeigt der Softkey 1322 einen Icon an, der anzeigt, dass man vorzugsweise den Softkey 1322 anklicken sollte, um ein Bild der scharf eingestellten Objekte zu erfassen, wenn das mobile elektronische Gerät horizontal ausgerichtet ist. Der Sensorbildschirm kann Bilder, die von einem Bildsensormodul (beispielsweise 1307 gemäß der 1) erzeugt werden, fortwährend in einem Vorschaubereich W400 anzeigen, was es erleichtert, gewisse Objekte scharf einzustellen. Gemäß der 4a kann ein Benutzer das mobile elektronische Gerät vertikal halten, um gewisse zu erfassende Objekte scharf einzustellen, und wird dann, wenn der Softkey 1321 durch den Daumen angeklickt bzw. betätigt wird, ein Bildobjekt, das den fokussierten Objekten entspricht, erzeugt und in einem Speicher (beispielsweise 1306 gemäß der 1) oder einem Speichermedium (beispielsweise 1313 gemäß der 1) gespeichert. Gemäß der 4b kann ein Benutzer das mobile elektronische Gerät horizontal halten, um gewisse Objekte scharf einzustellen und wird dann, wenn der Softkey 1322 durch einen Zeigefinger angeklickt bzw. betätigt wird, ein Bildobjekt, das den scharf eingestellten Objekten entspricht, erzeugt und gespeichert.

Die 5a und 5b sind schematische Darstellungen, die ein Ausführungsbeispiel für die Anordnung von Auslöserobjekten darstellen. Die beschriebene Hardware-Auslösertaste 310 auf einem Tastaturfeld (beispielsweise 1331 gemäß der 1) ist auf dem vorderseitigen Bedienfeld eines mobilen elektronischen Geräts vorgesehen und der vorstehend beschriebene Softkey 1322 wird auf einem Sensorbildschirm (beispielsweise 1323 gemäß der 1) eines mobilen elektronischen Geräts angezeigt. Der Sensorbildschirm kann Bilder, die von einem Bildsensormodul (beispielsweise 1307 gemäß der 1) erzeugt werden, fortwährend in einem Vorschaubereich W300 anzeigen, was es erleichtert, gewisse Objekte scharf einzustellen. Gemäß der 5a kann ein Benutzer das mobile elektronische Gerät vertikal halten, um gewisse Objekte, die erfasst werden sollen, scharf einzustellen, und wird dann, wenn die Hardware-Auslösertaste 310 mit einem Daumen niedergedrückt wird, ein Bildobjekt, das den scharf eingestellten Objekten entspricht, erzeugt und gespeichert. Gemäß der 5b kann ein Benutzer das mobile elektronische Gerät horizontal halten, um gewisse Objekte scharf einzustellen, und wird dann, wenn der Softkey 1322 mit einem Zeigefinger angeklickt wird, ein Bildobjekt, das den scharf eingestellten Objekten entspricht, erzeugt und gespeichert.

Die 6a und 6b sind schematische Darstellungen, die ein Ausführungsbeispiel für die Anordnung von Auslöserobjekten darstellen. Der beschriebene Softkey 1321 wird auf einem Sensorbildschirm (beispielsweise 1323 gemäß der 1) eines mobilen elektronischen Geräts angezeigt und der beschriebene Auslöserknopf 1322 ist auf einer Seitenfläche (beispielsweise der rechten Seitenfläche) des mobilen elektronischen Geräts vorgesehen. Der Sensorbildschirm kann Bilder, die von einem Bildsensormodul (beispielsweise 1307 gemäß der 1) erzeugt werden, kontinuierlich in einem Vorschaubereich W600 anzeigen, was es erleichtert, gewisse Objekte scharf einzustellen. Gemäß der 6a kann ein Benutzer das mobile elektronische Gerät vertikal halten, um gewisse Objekte, die erfasst werden sollen, scharf einzustellen, und wird dann, wenn der Softkey 1321 mit einem Daumen angeklickt wird, ein Bildobjekt, das den fokussierten Objekten entspricht, erzeugt und gespeichert. Gemäß der 6b kann ein Benutzer das mobile elektronische Gerät horizontal halten, um gewisse Objekte scharf einzustellen, und wird dann, wenn der Auslöserknopf 1332 mit einem Zeigefinger niedergedrückt bzw. betätigt wird, ein Bildobjekt, das den scharf eingestellten Objekten entspricht, erzeugt und gespeichert.

Der Bildsensor kann auf zwei unterschiedliche Weisen angeordnet sein. Die 7a und 7b sind schematische Darstellungen der Rückseite eines Ausführungsbeispiels für ein mobiles elektronisches Gerät, welche die Anordnung des Bildsensors gemäß zwei Erfindungsaspekten darstellen. Bei dem Bildsensor handelt es sich typischerweise um einen Array von CMOS-Zellen, CCD-Zellen oder dergleichen. Gemäß der 7a ist zumindest eine Langseite des Bildsensors 1309 parallel zu mindestens einer Kurzseite eines mobilen elektronischen Geräts angeordnet. Gemäß der 7b ist zumindest eine Kurzseite des Bildsensors 1309 parallel zu mindestens einer Kurzseite eines mobilen elektronischen Geräts angeordnet. Eine Zelle P(0,0) befindet sich in der Spalte 0 (das heißt in der ersten Spalte) von Reihe 0 (das heißt der ersten Reihe) des Bildsensors. Es sei darauf hingewiesen, dass Bildobjekte durch sequentielles Abtasten bzw. Auslesen des Bildsensors 1309 erzeugt werden, um variable Ladungen auszulesen und diese in diskrete Farbwerte zu wandeln. Beispielsweise umfasst der Abtastprozess, der von einem Sensorcontroller und Bildprozessor (beispielsweise 1310 gemäß der 1) ausgeführt wird, ein Abtasten bzw. Auslesen der ersten bis letzten Spalte in einer Zeile. Nach Erreichen der letzten Spalte in einer Zeile wird die nächste Reihe beginnend mit der ersten Spalte bis zur letzten Spalte abgetastet bzw. ausgelesen. Der Abtastprozess läuft solange ab, bis der gesamte Bildsensor abgetastet ist bzw. ausgelesen worden ist und sämtliche Farbwerte erfasst worden sind.

Die 8 ist ein Flussdiagramm, das ein Ausführungsbeispiel für ein Verfahren zum Erfassen von Bildern von Objekten darstellt, das von einem Prozessor eines mobilen elektronischen Geräts (beispielsweise 1305 gemäß der 1) ausgeführt wird. In dem Schritt S801 wird Information bereitgestellt, die Abbildungsbeziehungen zwischen Auslöserobjekten und Orientierungstypen anzeigt. Eine solche Information kann in einem Speicher gespeichert werden (beispielsweise 1306 gemäß der 1) oder in einem Speichermedium (beispielsweise 131 gemäß der 1). Die 9a und 9b sind schematische Darstellungen, die jeweils enthaltene Tabellen 91 und 93 darstellen. Die Tabelle 91 beschreibt Information, die Abbildungsbeziehungen anzeigt, wenn ein Bildsensor so wie in der 7a gezeigt angeordnet ist, und die Tabelle 93 beschreibt Information, die Abbildungsbeziehungen anzeigt, wenn ein Bildsensor so wie in der 7b gezeigt angeordnet ist. Dabei kann „V-Obj" ein Auslöserobjekt bezeichnen, das ohne weiteres mit einem Daumen niedergedrückt oder angeklickt werden kann (beispielsweise 310 gemäß der 3a oder 5a oder 1321 gemäß der 4a oder 6a), wenn das mobile elektronische Gerät vertikal orientiert ist. „H-Obj" kann ein Auslöserobjekt bezeichnen, das mit einem Zeigefinger ohne weiteres niedergedrückt oder angeklickt werden kann (beispielsweise 1332 gemäß der 3b oder 6b oder 1322 gemäß der 4b oder 5b), wenn das mobile elektronische Gerät horizontal gehalten wird. Es können acht Orientierungstypen, die von 1 bis 8 reichen, einer Kombination von „V-Obj" und „H-Obj" zugeordnet werden. Es sei darauf hingewiesen, dass sämtliche der Pixeldaten (d.h. diskrete Farbwerte) der erfassten Festbilder oder Videoframes typischerweise in Entsprechung zu dem beschriebenen Abtast- bzw. Ausleseprozess gespeichert werden. Es sei ferner darauf hingewiesen, dass die Tabellen 91 und 93 in verschiedenen Datenstrukturen realisiert werden können, beispielsweise als zweidimensionale Arrays oder dergleichen.

Jeder Orientierungstyp zeigt Abbildungen zwischen den gespeicherten Bildobjekten und Darstellungen auf einer Anzeigeinrichtung an (beispielsweise 1314 gemäß der 1), einem Sensorbildschirm (beispielsweise 1323 gemäß der 1) oder einer externen Anzeige, beispielsweise einem Bildschirm, einer TFT-LCD-Anzeige (nicht gezeigt), einer Plasma-Anzeige (nicht gezeigt), einer OLED-Anzeige (nicht gezeigt) oder dergleichen. Die 10a bis 10h sind schematische Darstellungen, die Abbildungen zwischen den gespeicherten Bildobjekten und Darstellungen auf einer Anzeigeeinrichtung darstellen. Ein Orientierungstyp, der gleich eins (1) ist, zeigt eine Zeile 0 eines gespeicherten Bilds/Frames P100a an, die am oberen Ende eines angezeigten Bilds/Frames P200a angezeigt wird sowie die Spalte 0 des gespeicherten Bilds/Frames P100a, die auf der linken Seite des angezeigten Bilds/Frames P200a angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10a gezeigt. Ein Orientierungstyp, der gleich zwei (2) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100b am oberen Ende eines angezeigten Bilds/Frames P200b angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100b auf der rechten Seite des angezeigten Bilds/Frames 200b angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10b gezeigt. Ein Orientierungstyp, der gleich drei (3) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100c am unteren Ende eines angezeigten Bilds/Frames P200c angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100c auf der rechten Seite des angezeigten Bilds/Frames 200c angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10c gezeigt. Ein Orientierungstyp, der gleich vier (4) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100d am unteren Ende eines angezeigten Bilds/Frames P200d angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100d auf der linken Seite des angezeigten Bilds/Frames P200d angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10d gezeigt. Ein Orientierungstyp, der gleich fünf (5) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100e am linken Rand eines angezeigten Bilds/Frames P200e angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100e am oberen Ende des angezeigten Bilds/Frames P200e angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10e gezeigt. Bin Orientierungstyp, der gleich sechs (6) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100f am rechten Rand eines angezeigten Bilds/Frames P200f angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100f am oberen Ende des angezeigten Bilds/Frames P200f angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10f gezeigt. Ein Orientierungstyp, der gleich sieben (7) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100g am rechten Rand eines angezeigten Bilds/Frames P200g angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100g am unteren Ende des angezeigten Bilds/Frames P200g angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10g gezeigt. Ein Orientierungstyp, der gleich acht (8) ist, zeigt an, dass eine Reihe 0 eines gespeicherten Bilds/Frames P100h am linken Rand eines angezeigten Bilds/Frames P200h angezeigt wird und dass eine Spalte 0 des gespeicherten Bilds/Frames P100h am unteren Ende des angezeigten Bilds/Frames P200h angezeigt wird, wobei das Ergebnis der Anzeige so beschaffen ist, wie in der 10h gezeigt. Einzelheiten der Verwendung der bereitgestellten Information sollen anhand der nachfolgenden Schritte beschrieben werden.

In dem Schritt S821 wird ein Auslöser- oder Aufzeichnungssignal detektiert. Das Auslöser- oder Aufzeichnungssignal kann von mehreren Auslöserobjekten erzeugt werden, beispielsweise von Softkeys auf einem Sensorbildschirm (beispielsweise 1321 gemäß der 4a, 4b, 6a oder 6b oder 1322 gemäß der 4a, 4b, 5a oder 5b), Hardware-Tasten auf einem Tastaturfeld (beispielsweise 310 gemäß der 3a, 3b, 5a oder 5b) und eines Auslöserknopfs, der auf einer Seitenfläche vorgesehen ist (beispielsweise 1332 gemäß der 3a, 3b, 6a oder 6b). Das Auslösesignal wird relevante elektronische Einrichtungen des mobilen elektronischen Geräts steuern, um ein Festbild zu erzeugen. Das Aufzeichnungssignal wird relevante elektronische Einrichtungen des mobilen elektronischen Geräts steuern, um eine Serie von Videoframes zu erzeugen. In dem Schritt S831 wird bestimmt, durch welches Auslöserobjekt das detektierte Auslöser- oder Aufzeichnungssignal erzeugt wird. In dem Schritt S841 wird ein Bildobjekt mit Hilfe eines Bildsensormoduls (beispielsweise 1307 gemäß der 1), eines Sensorcontrollers und Bildprozessors (beispielsweise 1310 gemäß der 1) und/oder eines Bildkodierers (beispielsweise 1312 gemäß der 1) erzeugt. In dem Schritt S851 wird ein Orientierungstyp für das erfasste Bildobjekt in Entsprechung zu der bereitgestellten Information und dem Auslöserobjekt, welches das Auslöser- oder Aufzeichnungssignal erzeugt, bestimmt. Beispielsweise wird, wenn ein Bildsensor so wie in der 7 gezeigt angeordnet ist, entsprechend der Tabelle 91 gemäß der 9a der Orientierungstyp zu eins festgelegt, wenn das Auslöser- oder Aufzeichnungssignal durch ein Auslöserobjekt erzeugt wird, das durch „V-Obj" bezeichnet wird (beispielsweise 310 gemäß der 3a, 1321 gemäß der 4a, 310 gemäß der 5a oder 1321 gemäß der 6a), ansonsten wird der Orientierungstyp zu acht festgelegt, wenn das Auslöser- oder Aufzeichnungssignal durch ein Auslöserobjekt erzeugt wird, das durch „H-Obj" bezeichnet wird (beispielsweise 1332 gemäß der 3b, 1322 gemäß der 4b, 1322 gemäß der 4a oder 1332 gemäß der 6b). In dem Schritt S861 wird das erfasste Bildobjekt gemeinsam mit dem bestimmten Orientierungstyp in einem Speicher (beispielsweise 1306 gemäß der 1) oder auf einem Speichermedium (beispielsweise 1313 gemäß der 1) gespeichert. Der bestimmte Orientierungstyp kann in einem Orientierungskennzeichen (Tag) (0×112) einer Festbild-Headerdatei gespeichert werden, die kompatibel zu dem EXIF-Format (Exchangeable Image File Format) ist, das durch EXIF für Festbildkameras dargelegt ist: Exif Version 2.2, festgelegt im April 2002. Der bestimmte Orientierungstyp, der einem proprietären Identifizierer (beispielsweise „MTKORIT") folgt, kann in einer Nutzerdatenbox (user data box; udat) einer MPEG-Datei gespeichert werden, die durch ISO 14496-12 erste Auflage vom 1. Februar 2004 dargelegt ist. Es sei darauf hingewiesen, dass die Anordnung der Pixeldaten für die gespeicherten Festbilder oder das gespeicherte Videoframe nicht verändert wird, wenn der Orientierungstyp in dem Orientierungskennzeichen einer Festbild-Headerdatei oder in der udat-Box einer MPEG-Datei gespeichert wird.

Die 11 ist ein Flussdiagramm, das ein Ausführungsbeispiel für ein Verfahren zum Anzeigen von Bildobjekten darstellt, das von einem Prozessor eines mobilen elektronischen Geräts (beispielsweise 1305 gemäß der 1), einem Prozessor eines Computers (nicht gezeigt) oder dergleichen ausgeführt wird. In dem Schritt S1110 wird ein Bildobjekt aus einem Speicher (beispielsweise 1306 gemäß der 1) oder einem Speichermedium (1313 gemäß der 1) erfasst bzw. ausgelesen. In dem Schritt S1120 wird ein Orientierungstyp für das erfasste Bildobjekt erfasst. Der Orientierungstyp kann aus dem vorstehend beschriebenen Orientierungskennzeichen oder der udat-Box erfasst bzw. ausgelesen werden. In dem Schritt S1130 wird das erfasste Bildobjekt in Entsprechung zu dem erfassten Orientierungstyp angezeigt. Die Einzelheiten der Anzeige können anhand der vorstehenden Beschreibung der 10a bis 10h angeleitet werden.

Einzelheiten der Verfahren zum Erfassen und Anzeigen von Bildern von Objekten werden anhand der nachfolgenden Beispiele weiter erläutert. Die 12 ist eine schematische Darstellung, welche die Erfassung eines Bilds durch ein Handy und die Anzeige des erfassten Bilds der Person mit Hilfe einer externen Anzeige darstellt. Wenn ein Bildsensor 1309 des Handys so wie in der 7a gezeigt, angeordnet wird, wird die vorstehend beschriebene Tabelle 91 (9a) bereitgestellt (vgl. Schritt S811 gemäß der 3). Wenn ein Auslöser- oder Aufzeichnungssignal detektiert wird (vgl. Schritt S821 gemäß der 8), bestimmt ein Prozessor, dass eine Hardware-Auslösertaste 310, die mit „V-Obj" bezeichnet wird, das Auslöser- oder Aufzeichnungssignal erzeugt (vgl. Schritt S831), wird ein Bildobjekt IMG120 erfasst (vgl. Schritt S841), ein Orientierungstyp, der gleich eins ist, nämlich INFO120, für das erfasste Bildobjekt IMG120 bestimmt wird, das von der Hardware-Auslösertaste 310 erfasst wurde, und zwar durch Abrufen der bereitgestellten Tabelle 91 (vgl. Schritt S851), und speichert dieser das erfasste Bildobjekt IMG120 gemeinsam mit dem so bestimmten Orientierungstyp INFO120 ab. Und dann erfasst ein Computer das gespeicherte Bildobjekt IMG120 (vgl. Schritt S1110 gemäß der 11), erfasst für das erfasste Bildobjekt, dass der gespeicherte Orientierungstyp gleich eins (1) ist (vgl. Schritt S1120 gemäß der 11), und zeigt das erfasste Bildobjekt IMG120 in Entsprechung zu dem erfassten Orientierungstyp, der gleich eins ist, an, wobei das Ergebnis der Anzeige so beschaffen ist, wie in dem Bild DISP120 gezeigt. Man beachte, dass das Handy das erfasste Bildobjekt auch auf einem Bildschirm des Handys in Entsprechung zu dem gespeicherten Orientierungstyp mit Hilfe einer Foto-Browseranwendung anzeigen kann. Das Ergebnis der Anzeige kann analog zur 12 ohne weiteres abgeleitet werden.

Die 13 ist eine schematische Darstellung, welche die Erfassung eines Bilds durch ein Handy und die Anzeige des erfassten Bilds der Person mit Hilfe einer externen Anzeige darstellt. Wenn ein Bildsensor 1309 des Handys so angeordnet ist, wie in der 7a gezeigt, wird die vorstehend beschriebene Tabelle 91 (9a) bereitgestellt (vgl. Schritt S811 gemäß der 8). Wenn ein Auslöser- oder Aufzeichnungssignal detektiert wird (vgl. Schritt S821 gemäß der 8), bestimmt ein Prozessor, dass ein seitlich vorgesehener Auslöserknopf 1332, der mit „H-Obj" bezeichnet wird, das Auslöser- oder Aufzeichnungssignal erzeugt (vgl. Schritt S831), erfasst dieser ein Bildobjekt IMG130 (vgl. Schritt S841), bestimmt einen Orientierungstyp, der gleich acht (8) ist, INFO130 für das erfasste Bildobjekt IMG130, das mit Hilfe des seitlich vorgesehenen Auslösertopfes 1332 erfasst wurde, und zwar durch Abrufen der bereitgestellten Tabelle 91 (vgl. Schritt S851), und speichert das erfasste Bildobjekt IMG130 gemeinsamen mit dem so bestimmten Orientierungstyp INFO130. Und dann erfasst der Computer das gespeicherte Bildobjekt IMG130 (vgl. Schritt S1110 gemäß der 11) bzw. liest dieses aus, erfasst bzw. liest den gespeicherten Orientierungstyp, der für das erfasste Bildobjekt gleich acht ist, (vgl. Schritt S1120 gemäß der 11) und zeigt das erfasste bzw. ausgelesene Bildobjekt IMG130 in Entsprechung zu dem erfassten Orientierungstyp, der gleich acht ist, an, wobei das Ergebnis der Anzeige so beschaffen ist, wie in dem Bild DISP130 gezeigt. Man beachte, dass das Handy das erfasste Bildobjekt auch auf einem Bildschirm des Handys in Entsprechung zu dem gespeicherten Orientierungstyp mit Hilfe einer Foto-Browseranwendung anzeigen kann. Das Ergebnis der Anzeige kann vom Fachmann analog zur vorstehenden Beschreibung gemäß der 13 abgeleitet werden.

Die 14 ist eine schematische Darstellung, welche die Erfassung eines Bilds mit Hilfe eines Handys darstellt, sowie die Anzeige des erfassten Bilds der Person durch eine externe Anzeigeeinrichtung. Wenn ein Bildsensor 1309 des Handys so wie in der 7b gezeigt angeordnet wird, wird die vorstehend beschriebene Tabelle 93 (vgl. 9b) bereitgestellt (vgl. Schritt S811 gemäß der 8). Wenn ein Auslöser- oder Aufzeichnungssignal detektiert wird (vgl. Schritt S821 gemäß der 8), bestimmt ein Prozessor, dass eine Hardware-Auslösertaste 310, die mit „V-Obj" bezeichnet wird, das Auslöser- und Aufzeichnungssignal erzeugt (vgl. Schritt S831), erfasst dieser ein Bildobjekt IMG140 (vgl. Schritt S841), bestimmt einen Orientierungstyp, der gleich sechs (6) ist, nämlich INFO140 für das erfasste Bildobjekt IMG140, das mit Hilfe des Hardware-Auslösertaste 310 erfasst wurde, und zwar durch Abrufen der bereitgestellten Tabelle 93 (vgl. Schritt S851), und speichert das erfasste Bildobjekt IMG140 gemeinsam mit dem bestimmten Orientierungstyp INFO140. Und dann erfasst ein Computer das gespeicherte Bildobjekt IMG140 (vgl. Schritt S1110 gemäß der 11), erfasst den gespeicherten Orientierungstyp, der gleich sechs ist, für das erfasste Bildobjekt (vgl. Schritt S1120 gemäß der 11) und zeigt das erfasste Bildobjekt IMG140 in Entsprechung zu dem erfassten Orientierungstyp, der gleich sechs ist, an, wobei das Ergebnis der Anzeige so beschaffen ist, wie in dem Bild DISP140 gezeigt. Man beachte, dass das Handy das erfasste Bildobjekt auf einem Bildschirm des Handys in Entsprechung zu dem gespeicherten Orientierungstyp mit Hilfe einer Foto-Browseranwendung anzeigen kann. Das Ergebnis der Anzeige kann im Wege der Analogie anhand der 14 abgeleitet werden.

Die 15 ist ein Diagramm, das die Erfassung eines Bilds mit Hilfe eines Handys darstellt, sowie die Anzeige des erfassten Bilds der Person durch eine externe Anzeige. Wenn ein Bildsensor 1309 des Handys so angeordnet ist, wie in der 7b gezeigt, wird die vorstehend beschriebene Tabelle 93 (9a) bereitgestellt (vgl. Schritt S811 gemäß der 8). Wenn ein Auslöser- oder Aufzeichnungssignal detektiert wird (vgl. Schritt S821 gemäß der 8), bestimmt ein Prozessor, dass ein seitlich vorgesehener Auslöserknopf 1332, der mit „H-Obj" bezeichnet wird, das Auslöser- oder Aufzeichnungssignal erzeugt (vgl. Schritt S831), erfasst dieser ein Bildobjekt IMG150 (vgl. Schritt S841), bestimmt einen Orientierungstyp, der gleich eins (1) ist, und zwar für INFO150 für das erfasste Bildobjekt IMG150, das mit Hilfe des seitlich vorgesehenen Auslöserknopfes 1332 erfasst wurde, und zwar durch Abrufen der bereitgestellten Tabelle 93 (vgl. Schritt S851), und speichert das erfasste Bildobjekt IMG1530 gemeinsam mit dem so bestimmten Orientierungstyp INFO150. Und dann erfasst ein Computer das gespeicherte Bildobjekt IMG150 (vgl. Schritt S1110 gemäß der 11), erfasst den gespeicherten Orientierungstyp, der gleich eins ist, für das erfasste Bildobjekt (vgl. Schritt S1120 gemäß der 11) und zeigt das erfasste Bildobjekt IMG150 in Entsprechung zu dem erfassten Orientierungstyp, der gleich eins ist, an, wobei das Ergebnis der Anzeige so beschaffen ist, wie in dem Bild DISP150 gezeigt. Man beachte, dass ein Handy das erfasste Bildobjekt auch auf einem Bildschirm des Handys in Entsprechung zu dem gespeicherten Orientierungstyp mit Hilfe einer Foto-Browseranwendung anzeigen kann. Das Ergebnis der Anzeige kann im Wege der Analogie anhand der 15 entsprechend abgeleitet werden.

Bei gewissen Ausführungsbeispielen kann der Orientierungstyp durch die Richtung einer Icon-Anzeige bestimmt werden, die auf einem Sensorbildschirm (beispielsweise 1321 gemäß der 1) oder einer Anzeigeeinrichtung 1314 (beispielsweise 1314 gemäß der 1) angezeigt wird. Wenn die Icon-Anzeige auf einem speziellen Bereich des Sensorbildschirms angezeigt wird, beispielsweise der linken oberen Ecke, der rechten oberen Ecke oder dergleichen, kann die Richtung der Icon-Anzeige durch Anklicken des bestimmten Bereichs eingestellt werden. Beispielsweise sei angenommen, dass zumindest eine Kurzseite eines Bildsensors eines mobilen elektronischen Geräts parallel zu mindestens einer Kurzseite des mobilen elektronischen Geräts angeordnet ist, wie in der 7b gezeigt. Die 16a bis 16d sind schematische Darstellungen, welche die Einstellung einer Richtung darstellen, die durch eine Icon-Anzeige angezeigt wird, und zwar entsprechend verschiedenen Gesichtspunkte der Erfindung, bevor ein Wolkenkratzer bzw. ein Hochhaus erfasst wird. Gemäß der 16a wird der Kopf einer Icon-Person I1600a zunächst in der Richtung Dup angezeigt, weil der Bildsensor so angeordnet ist, wie in der 7b gezeigt. Wenn jedoch ein Wolkenkratzer bzw. Hochhaus erfasst wird, erkennt der Benutzer, dass es nicht möglich ist, den Wolkenkratzer in seiner Gesamtheit auf dem Sensorbildschirm zu betrachten, wie in der 16a gezeigt. Der Benutzer hält das mobile elektronische Gerät dann vertikal, um den Wolkenkratzer scharf einzustellen, wie in der 16b gezeigt, und entdeckt, dass der Kopf der Icon-Person I1600a in eine falsche Richtung zeigt. Danach kann der Benutzer einen bestimmten Bereich auf dem Sensorbildschirm anklicken, der die Icon-Person anzeigt, um die Icon-Person im Gegenuhrzeigersinn um 90° zu drehen, das heißt von der Richtung Eup in eine Richtung Dleft. Wenn ein Signal detektiert wird, das anzeigt, dass der bestimmte Bereich auf dem Sensorbildschirm angeklickt wurde, und zwar mit Hilfe eines Sensorbildschirm-Controllers (beispielsweise 1320 gemäß der 1), dreht ein Prozessor (beispielsweise 1305 gemäß der 1) die Icon-Person auf dem Sensorbildschirm um 90° im Gegenuhrzeigersinn, wie in I1600b gemäß der 16c gezeigt. Es kann auch vorgesehen sein, dass der Sensorbildschirm-Controller die Icon-Person auf dem Sensorbildschirm im Uhrzeigersinn um 90° dreht, wenn ein Signal festgestellt wird, das anzeigt, dass der bestimmte Bereich auf dem Sensorbildschirm angeklickt wurde. Außerdem kann die Icon-Person durch Niederdrücken einer Hardware-Taste auf einem Tastaturfeld (1331 gemäß der 1) gedreht werden, wie in der 16d gezeigt. Wenn ein Signal detektiert wird, das anzeigt, dass eine Hardware-Taste K1600 auf einem Tastaturfeld niedergedrückt wurde, und zwar mit Hilfe eines Tastaturfeld-Controllers (beispielsweise 1330 gemäß der 1), dreht der Prozessor die Icon-Person auf dem Sensorbildschirm im Gegenuhrzeigersinn um 90°, wie in I1600 gemäß der 16d gezeigt. Nachdem die Icon-Person gedreht wurde, wird ein Richtungs-Kennzeichenbit (Flag), das in einem Speicher (beispielsweise 1306 gemäß der 1) gespeichert wird, aktualisiert um anzuzeigen, dass der Kopf der Icon-Person (iconic Person) zu einer bestimmten Richtung gerichtet ist.

Die 17 ist ein Flussdiagramm, das ein Ausführungsbeispiel für ein Verfahren zum Erfassen von Bildern von Objekten darstellt, das von einem Prozessor eines mobilen elektronischen Geräts ausgeführt wird (beispielsweise 1305 gemäß der 1). In dem Schritt S1711 wird Information bereitgestellt, die Abbildungsbeziehungen zwischen Richtungen, die von einer angezeigten Icon-Anzeige angezeigt werden, und Orientierungstypen bereitstellt. Eine solche Information kann in einem Speicher (beispielsweise 1306 gemäß der 1) oder auf einem Speichermedium (beispielsweise 131 gemäß der 1) gespeichert sein. Die 18 ist eine schematische Darstellung, die eine Tabelle 180 enthält. Die Tabelle 180 beschreibt Information, die Abbildungsbeziehungen anzeigt, wenn ein Bildsensor so angeordnet ist, wie in der 7b gezeigt. Dabei bezeichnen „Dup", „Ddown", „Dleft" und „Dright" die Richtungen, wie in den 16a bis 16d gezeigt. Acht Orientierungstypen, die von eins (1) bis acht (8) reichen, können einem Wert von „Dup", „Ddown", „Dleft" und „Dright" zugewiesen werden. Einzelheiten der Orientierungstypen kann man anhand der nachfolgenden Beschreibungen gemäß den 10a bis 10h ableiten. Es sei darauf hingewiesen, dass die Pixeldaten (d.h. diskrete Farbwerte) der erfassten Festbilder und Videoframes typischerweise in Entsprechung zu dem beschriebenen Abtast- bzw. Ausleseprozess gespeichert werden. Es sei darauf hingewiesen, dass die Tabellen 180 in Form von verschiedenen Datenstrukturen realisiert werden können, beispielsweise als zweidimensionale Arrays oder dergleichen.

In dem Schritt S1721 wird ein Auslöser- oder Aufzeichnungssignal detektiert. Das Auflöser- oder Aufzeichnungssignal kann durch einen der Softkeys auf einem Sensorbildschirm (beispielsweise 1321 gemäß den 4a, 4b, 6a oder 6b oder 1322 gemäß den 4a, 4b, 5a oder 5b), eine der Hardware-Tasten auf einem Tastaturfeld (beispielsweise 310 gemäß den 3a, 3b, 5a oder 5b) oder einen Auslöserknopf erzeugt werden, der auf einer Seitenfläche vorgesehen ist (beispielsweise 1332 gemäß den 3a, 3b, 6a oder 6b). Im Schritt S1731 wird bestimmt, welche Richtung die angezeigte Icon-Anzeige anzeigt. Die von der Icon-Anzeige angezeigte Richtung wird vorzugsweise durch Prüfen des gespeicherten Richtungs-Kennzeichenbits bestimmt. Das Auslösersignal wird relevante elektronische Einrichtungen des mobilen elektronischen Geräts steuern, um ein Festbild zu erzeugen. Das Aufzeichnungssignal wird relevante elektronische Einrichtungen des mobilen elektronischen Geräts steuern, um eine Serie von Videoframes zu erzeugen. In dem Schritt S831 wird bestimmt, durch welches Auslöserobjekt das detektierte Auslösersignal erzeugt wird. In dem Schritt S1741 wird ein Bildobjekt mit Hilfe eines Bildsensormoduls (beispielsweise 1307 gemäß der 1), eines Sensorcontrollers und Bildprozessors (beispielsweise 1310 gemäß der 1) und/oder eines Bildkodierers (beispielsweise 1312 gemäß der 1) erfasst. In dem Schritt S1751 wird ein Orientierungstyp für das erfasste Bildobjekt in Entsprechung zu der bereitgestellten Information und der durch die angezeigte Icon-Anzeige angezeigte Richtung bestimmt. Beispielsweise wird, wenn ein Bildsensor so, wie in der 7b gezeigt, angeordnet ist, in Entsprechung zu der Tabelle 180 gemäß der 18 der Orientierungstyp auf sechs festgelegt, wenn die durch die Icon-Anzeige angezeigte Richtung „Dleft" ist, wie in den 16c oder 16d gezeigt. In dem Schritt S1761 wird das erfasste Bildobjekt gemeinsam mit dem bestimmten Orientierungstyp in dem Speicher (beispielsweise 1306 gemäß der 1) oder auf einem Speichermedium (beispielsweise 1313 gemäß der 1) gespeichert. Der bestimmte Orientierungstyp kann in dem beschriebenen Orientierungs-Kennzeichen (0×112) einer Festbild-Headerdatei gespeichert werden. Der bestimmte Orientierungstyp, der einem proprietären Identifizierer (beispielsweise „MTKORIT") folgt, kann in der beschriebenen Nutzerdatenbox (udat) eine MPEG-Datei gespeichert werden.

Die 19 ist eine schematische Darstellung eines Ausführungsbeispiels einer Pipeline für eine Videokodierung. Die Pipeline (Einrichtung zur überlappten Befehlsausführung bzw. Befehlsausführung nach dem Fließbandkonzept) zur Videokodierung umfasst den Prozessor 1305, Speicher 1306, Bildsensor 1309, Videokodierer 1312, einen Bild-DMA-Controller 1910 (Controller für einen direkten Speicherzugriff auf das Bild), der vorzugsweise auf dem Sensorcontroller und Bildprozessor 1310 resident ist, sowie einen Frame-Pufferspeicher 1930, der vorzugsweise auf dem Speicher 1306 resident ist. Der Bild-DMA-Controller 1910 enthält mehrere Pufferspeicher-Schreibprozeduren in Form von Hardwareschaltungen. Vor einer Videokodierung weist der Prozessor 1305 den Bild-DMA-Controller 1910 an, eine Puffer-Schreibprozedur in Entsprechung zu einem bestimmten Orientierungstyp zu verwenden. Danach empfängt der Bild-DMA-Controller 1910 Farbwerte (beispielsweise RGB, YCbCr oder vergleichbare Werte) von Pixeln entlang des vorstehend beschriebenen Abtast- bzw. Ausleseprozesses für den Bildsensor 1309 und schreibt die empfangenen Farbwerte von jedem Pixel in den Frame-Pufferspeicher unter Bezugnahme auf die angewiesene Pufferspeicher-Schreibprozedur während der Videokodierung. Wenn die Pufferspeicher-Schreibprozedur angewendet wird, kann das detektierte Bild gedreht und in dem Frame-Pufferspeicher 1930 gespeichert werden. Anschließend erfasst ein Videokodierer 1312 ein Bild durch serielles Auslesen von Farbwerten aus dem Frame-Pufferspeicher 1312 und kodierte das erfasste bzw. ausgelesene Bild durch Ausführen von MPEG-Verfahren, H.26x Kodierverfahren oder dergleichen in einen Video-Bitstream. Die 20 ist ein Flussdiagramm, das ein Ausführungsbeispiel für eine Pufferspeicher-Schreibprozedur zum Schreiben von einem detektierten Bild in einen Frame-Pufferspeicher darstellt, wenn zumindest eine Kurzseite eines Bildsensors eines mobilen elektronischen Geräts parallel zu mindestens einer Kurzseite eines mobilen elektronischen Geräts angeordnet ist, wie in der 7b gezeigt, wobei der Dreh- bzw. Orientierungstyp in diesem Fall gleich eins ist. In dem Schritt S2011 wird eine Variable i auf null gesetzt. In dem Schritt S2021 werden Farbwerte für ein Pixel empfangen. In dem Schritt S2023 werde die empfangenen Farbwerte in den Pufferspeicher [OFFSET+1] geschrieben, wobei die Konstante „OFFSET" (Versatz) die Startadresse des Frame-Pufferspeichers 1930 anzeigt. In dem Schritt S2025 wird die Variable um eins erhöht. Man beachte, dass jede Zelle in dem Frame-Pufferspeicher 1930 über einen ausreichenden Speicherplatz zum Speichern von Farbwerten für ein Pixel verfügt. In dem Schritt S2031 wird bestimmt, ob i gleich einer Gesamtzahl von Pixel ist, die mit N(image) bezeichnet wird. Falls dies der Fall ist, bricht der Prozess ab, ansonsten schreitet der Prozess mit dem Schritt S2021 fort, um das nächste Pixel zu bearbeiten. Man beachte, dass die Sequenz der Schritte S2011 bis S2031 nur zum verbesserten Verständnis der Erfindung dienen soll. Der Fachmann auf diesem Gebiet kann Funktionen gemäß den Schritten S2011 bis S2031 in Form Hardwareschaltkreisen anordnen bzw. realisieren, ohne von dem Schutzbereich und dem allgemeinen Lösungsgedanken der erfindungsgemäßen Pufferspeicher-Schreibprozedur abzuweichen, um die Effizienz der Dekodierung zu verbessern. Die 21 ist eine schematische Darstellung eines Bild-DMA-Controllers, der Pixelwerte eines detektierten Bilds von einem Bildsensor in einen Frame-Pufferspeicher, unter Verwendung der in der 20 gezeigten Pufferspeicher-Schreibprozedur, schreibt. Man beachte, dass dann, wenn die in der 20 gezeigte Pufferspeicher-Schreibprozedur eingesetzt wird, das detektierte Bild nicht gedreht wird.

Die 22 ist ein Flussdiagramm, das ein Ausführungsbeispiel für eine Pufferspeicher-Schreibprozedur zum Schreiben eines detektierten Bildes in einen Frame-Pufferspeicher darstellt, wenn zumindest eine Kurzseite eines Bildsensors eines mobilen elektronischen Geräts parallel zu mindestens einer Kurzseite eines mobilen elektronischen Geräts angeordnet ist, wie in der 7b gezeigt, wobei in diesem Fall der Dreh- bzw. Orientierungstyp gleich sechs ist. In dem Schritt S2211 wird eine Variable i auf eins gesetzt. In dem Schritt S2221 wird eine Variable j auf eins gesetzt. In dem Schritt S2223 werden Farbwerte für ein Pixel empfangen. In dem Schritt S2225 werden die empfangenen Farbwerte in den Pufferspeicher [OFFSET+SENSOR_HEIGHTxj-i] geschrieben, wobei die Konstante „OFFSET" die Startadresse des Frame-Pufferspeichers 1930 anzeigt und die Konstante „SENSOR_HEIGHT" die Höhe des Bildsensors 1309 anzeigt. In dem Schritt S2231 wird bestimmt, ob j gleich der Konstanten „SENSOR_WIDTH" ist, welcher Wert die Breite des Bildsensors 1309 anzeigt. Falls dies der Fall ist, fährt der Prozess mit dem Schritt S2241 fort, ansonsten mit dem Schritt S2233. In dem Schritt S2233 wird die Variable j um eins erhöht. In dem Schritt S2241 wird bestimmt, ob i gleich der Konstanten „SENSOR_HEIGHT" ist. Falls dies der Fall ist, bricht der Prozess ab, ansonsten fährt der Prozess mit dem Schritt S2243 fort, um das nächste Pixel zu verarbeiten. In dem Schritt 2243 wird die Variable j um eins erhöht. Man beachte, dass die Sequenz der Schritte S2211 bis S2243 nur zum Zwecke eines besseren Verständnisses der Erfindung dargelegt wurde. Der Fachmann auf diesem Gebiet kann die Funktionen gemäß den Schritten S2211 bis S2243 in Form von parallelen Hardware-Schaltkreisen anordnen bzw. realisieren, ohne von dem Schutzbereich und dem allgemeinen Lösungsgedanken der erfindungsgemäßen Pufferspeicher-Schreibprozedur abzuweichen, um die Effizienz der Dekodierung zu verbessern. Die 23 ist ein Diagramm eines Bild-DMA-Controllers, der Pixelwerte eines detektierten Bildes von einem Bildsensor in einen Frame-Pufferspeicher unter Verwendung der in der 23 gezeigten Pufferspeicher-Schreibprozedur schreibt. Man beachte, dass, wenn die in der 23 gezeigte Pufferspeicher-Schreibprozedur verwendet wird, das detektierte Bild gedreht wird.

Die 24 ist eine schematische Darstellung eines Ausführungsbeispiels einer Pipeline zur Videokodierung. Die Pipeline zur Videokodierung umfasst den Prozessor 1305, Speicher 1306, Bildsensor 1309, Videokodierer 1312, einen Bild-DMA-Controller 1910, der vorzugsweise auf dem Sensorcontroller und Bildprozessor 1310 resident ist, sowie einen Frame-Pufferspeicher 1930, der vorzugsweise auf dem Speicher 1306 resident ist. Der Videokodierer 1312 enthält mehrere Puffer-Leseprozeduren in Gestalt von Hardwareschaltkreisen. Vor einer Videokodierung weist der Prozessor 1305 den Videokodierer 1312 an, eine Pufferspeicher-Ausleseprozedur in Entsprechung zu einem bestimmten Orientierungstyp zu verwenden. Anschließend empfängt der Bild-DMA-Controller 1910 Farbwerte (beispielsweise RGB-, YCbCr-Werte oder vergleichbare Werte) von Pixel entlang des beschriebenen Abtast- bzw. Auslese-Prozesses aus dem Bildsensor 1309 und schreibt die empfangenen Farbwerte von jedem Pixel in den Frame-Pufferspeicher 1930 von Anfang bis zum Ende. Der Videokodierer 1312 erfasst im Wesentlichen ein Bild durch Auslesen von Farbwerten aus dem Frame-Pufferspeicher 1312 anhand der angewiesenen Pufferspeicher-Ausleseprozedur und kodiert das erfasste Bild in einen Video-Bitstream unter Verwendung von MPEG-Verfahren, H.26x-Kodierverfahren oder ähnlichen Verfahren. Wenn die Pufferspeicher-Ausleseprozedur eingesetzt wird, kann das detektierte Bild gedreht und in einen Video-Bitstream kodiert werden.

Die 25 ist ein Flussdiagramm eines Ausführungsbeispiels für eine Pufferspeicher-Ausleseprozedur zum Auslesen eines erfassten Bilds aus einem Frame-Pufferspeicher, wenn zumindest eine Kurzseite eines Bildsensors eines mobilen elektronischen Geräts parallel zu mindestens einer Kurzseite eines mobilen elektronischen Geräts angeordnet ist, wie in der 7b gezeigt, und der Orientierungs- bzw. Drehtyp eins ist. Die Pufferspeicher-Ausleseprozedur ordnet das Bild in dem Frame-Pufferspeicher in Blöcken an und führt eine Serie von Kodierverfahren für jeden Block aus, beispielsweise eine Farbraumtransformation, eine Abwärts-Tastung (Down-Sampling), eine diskrete Kosinustransformation (DCT), eine Quantisierung, eine variable Längenkodierung (VLE; Variable Length Encoding), eine Entropiekodierung, eine Bewegungsschätzung und/oder andere Verfahrensschritte. In dem Schritt S2511 werden Variablen i, j, next_i, next_j, block_count, block_hight_count und block_width_count anfänglich auf null gesetzt. In dem Schritt S2521 werden Farbwerte für ein Pixel aus dem Pufferspeicher [OFFSET+SENSOR_HEIGHTxi+j] ausgelesen und als ein Pixel eines Blocks behandelt, der mit Block [block_count, block_height_count, block_width_count] bezeichnet ist, wobei die Konstante „OFFSET" die Startadresse des Frame-Pufferspeichers 1930 bezeichnet und die Konstante „SENSOR-HEIGHT" die Höhe des Bildsensors 1309 bezeichnet. In dem Schritt S2523 wird bestimmt, ob die Variable block_width_count gleich der Konstanten „BLOCK_WIDTH" minus eins ist, wobei die Konstante „BLOCK_WIDTH" eine Blockbreite anzeigt. Falls dies der Fall ist, vervollständigt der Prozess eine Reihe eines Blocks und fährt das Verfahren mit dem Schritt S2531 fort, ansonsten mit dem Schritt S2525. In dem Schritt S2525 werden die Variablen j und block_width_count um eins erhöht. In dem Schritt S2531 wird bestimmt, ob die Variable block_height_count gleich der Konstanten „BLOCK_HEIGHT" minus eins ist, wobei die Konstante „BLOCK-HEIGHT" eine Blockhöhe bezeichnet. Falls dies der Fall ist, vervollständigt der Prozess sämtliche Reihen eines Blocks und fährt mit dem Schritt S2541 fort, ansonsten mit dem Schritt S2533. In dem Schritt S2533 wird die Variable i um eins erhöht, wird die Variable j auf die Variable next_i gesetzt, wird die Variable block_hight_count um eins erhöht und wird die Variable block_width_count auf null gesetzt. In dem Schritt S2541 wird bestimmt, ob der Wert SENSOR-HEIGHTxi+j+1 einem Vielfachen der Konstanten „SENSOR-WIDTH" entspricht. Es sei angenommen, dass die Breite eines Bildsensors 320 beträgt, so dass die Vielfachen der Konstante „SENSOR_WIDTH 320, 640, 960, 1290 und so weiter betragen. Falls dies der Fall ist, vervollständigt der Prozess sämtliche Zeilen einer Scheibe und schreitet mit dem Schritt S2551 fort, andererseits mit dem Schritt 2543. In dem Schritt S2543 wird die Variable i auf die Variable next_i gesetzt, wird die Variable next_j auf die Variable j plus eins gesetzt, wird die Variable j um eins erhöht, werden die Variablen block_height_count und block_width_count auf null gesetzt und wird die Variable block_count um eins erhöht. In dem Schritt S2551 wird bestimmt, ob der Wert von SENSOR_HEIGHTxi+j+1 gleich dem Wert von SENSOR_HEIGHTxSENSOR_WIDTH ist. Falls dies der Fall ist, bricht der Prozess ab, um ein erfasstes Bild zu vervollständigen, ansonsten geht dieser zu dem Schritt S2553 über.

In dem Schritt S2553 wird die Variable i um eins erhöht, wird die Variable next_i auf die Variable i plus eins gesetzt, werden die Variablen j, next_j, block_width_count und block_height_count auf null gesetzt und wird die Variable block_count um eins erhöht. In dem Schritt S2545 wird der neu erfasste Block, der als Block [block_count] bezeichnet wird, kodiert. Der neu erfasste Block kann durch eine Farbraumtransformation, durch Abwärtstastung (Down-Sampling), eine diskrete Kosinustransformation (DCT), Quantisierung, eine variable Längenkodierung (VLE), Entropiekodieren, Bewegungsabschätzung und/oder andere Algorithmen kodiert werden. Man beachte, dass die Beschreibung der Sequenz aus den Schritten S2511 bis S2553 nur zur Erläuterung der Erfindung erfolgte. Der Fachmann auf diesem Gebiet kann die Funktionen S2511 bis S2553 in Gestalt von parallelen Hardwareschaltkreisen realisieren, ohne von dem Schutzbereich und dem allgemeinen Lösungsgedanken der Pufferspeicher-Ausleseprozedur abzuweichen, um die Effizienz der Dekodierung zu verbessern.

Die 26 ist ein Flussdiagramm, das ein Ausführungsbeispiel für eine Pufferspeicher-Ausleseprozedur zum Auslesen eines erfassten Bildes aus einem Frame-Pufferspeicher darstellt, wenn zumindest eine Kurzseite eines Bildsensors eines mobilen elektronischen Geräts parallel zu mindestens einer Kurzseite eines mobilen elektronischen Geräts ist, wie in der 7b gezeigt und wenn der Orientierungs- bzw. Drehtyp gleich sechs (6) ist. Die Pufferspeicher-Ausleseprozedur ordnet das Bild in dem Frame-Pufferspeicher in Blöcke in Entsprechung zu dem Orientierungs- bzw. Drehtyp und führt eine Serie von Kodierungsverfahren für jeden Block aus, beispielsweise eine Farbraumtransformation, Abwärtstastung (Down-Sampling), eine diskrete Kosinustransformation (DCT), Quantisierung, variable Längenkodierung (VLE), Entropiekodierung, Bewegungsabschätzung und/oder andere Verfahren. In dem Schritt S2611 werden die Variablen i, next_i, block_count, block_height_count und block_width_count zu Beginn auf null gesetzt und werden die Variablen j und next_j zu Beginn auf 239 gesetzt. In dem Schritt S2621 werden Farbwerte für ein Pixel aus Buffer [OFFSET+SENSOR_HEIGHTxj+i] ausgelesen und als ein Pixel eines Blocks behandelt, der mit Block [block_count, blockheight_count, block_width_count] bezeichnet ist, wobei die Konstante „OFFSET" die Startadresse des Frame-Pufferspeichers 1930 bezeichnet und die Konstante „SENSOR_HEIGHT" die Höhe des Bildsensors 1309 bezeichnet. In dem Schritt S2623 wird bestimmt, ob die Variable block_width_count gleich einer Konstanten „BLOCK_WIDTH" minus eins ist, wobei die Konstante „BLOCK_WIDTH" eine Blockbreite anzeigt. Falls dies der Fall ist, vervollständigt der Prozess eine Zeile eines Blocks und fährt fort mit dem Schritt S2631, ansonsten mit dem Schritt S2625. In dem Schritt S2625 wird die Variable j um eins erniedrigt und wird die Variable block_width_count um eins erhöht. In dem Schritt S2631 wird bestimmt, ob die Variable block_height_count gleich einer Konstanten „BLOCK_HEIGHT" minus eins ist, wobei die Konstante „BLOCK_HEIGHT" eine Blockhöhe bezeichnet. Falls dies der Fall ist, vervollständigt der Prozess sämtliche Zeilen eines Blocks und fährt fort mit dem Schritt S2641, ansonsten mit dem Schritt S2633. In dem Schritt S2633 wird die Variable i um eins erhöht, wird die Variable j auf die Variable next_i gesetzt, wird die Variable block_height_count um eins erhöht und wird die Variable block_widt_hvount auf null gesetzt. In dem Schritt S2541 wird bestimmt, ob der Wert von SENSOR_HEIGHTxj+i+1 ein Wert zwischen eins und der Konstanten „SENSOR_WIDTH" ist. Falls dies der Fall ist, vervollständigt der Prozess sämtliche Zeilen einer Scheibe und fährt mit dem Schritt S2651 fort, ansonsten mit dem Schritt S2643. In dem Schritt S2643 wird die Variable i auf die Variable next_i gesetzt, wird die Variable next_j auf die Variable j minus eins gesetzt, wird die Variable j um eins erniedrigt, werden die Variablen block_height_count und block_width_count auf null gesetzt und wird die Variable block_count um eins erhöht. In dem Schritt S2651 wird bestimmt, ob der Wert von SENSOR_HEIGHTxj+1+1 gleich der Konstanten „SENSOR_WIDTH" ist. Falls dies der Fall ist, bricht der Prozess ab, um ein erfasstes Bild zu vervollständigen, ansonsten fährt der Prozess mit dem Schritt S2653 fort. In Schritt 2653 wird die Variable i um eins erniedrigt, wird die Variable next_i auf die Variable i plus eins gesetzt, werden die Variablen j und next_j auf 239 gesetzt, werden die Variablen block_width_count und block_height_count auf null gesetzt und wird die Variable block_count um eins erhöht. In dem Schritt S2645 wird der neu erfasste Block, der als Block [block_count] bezeichnet ist, kodiert. Man beachte, dass die Sequenz der Schritte S2611 bis S2653 nur in beispielhafter Weise zur Verbesserung des Verständnisses beschrieben wurde. Der Fachmann auf diesem Gebiet kann die Funktionen S2611 bis S2653 in Gestalt von parallelen Hardwareschaltkreisen realisieren, ohne von dem Schutzbereich und dem allgemeinen Lösungsgedanken der Pufferspeicher-Ausleseprozedur abzuweichen, um die Effizienz der Dekodierung zu verbessern.

Die 27 ist ein Diagramm eines Videokodierers, der Pixelwerte von einem erfassten Bild aus einem Frame-Pufferspeicher ausliest und einen kodierten Videostream erzeugt. Es sei darauf hingewiesen, dass, wenn die Pufferspeicher-Ausleseprozedur verwendet wird, wie in der 25 gezeigt ist, die Organisation der Blöcke auf dem ursprünglichen Bild basiert. Wenn alternativ die in der 26 gezeigte Pufferspeicher-Ausleseprozedur verwendet wird, basiert die Organisation der Blöcke auf einem gedrehten Bild, Bezug nehmend auf die 10f.

Die 28 ist eine schematische Darstellung eines Ausführungsbeispiels einer Pipeline (Einrichtung zur überlappten Befehlsausführung bzw. zur Befehlsausführung nach dem Fließbandkonzept) zur Videokodierung. Die Pipeline für eine Videokodierung umfasst den Prozessor 1305, Speicher 1306, Bildsensor 1309, Videokodierer 1312 und einen Frame-Pufferspeicher 1930, der vorzugsweise auf dem Speicher 1306 resident ist. Während der Videokodierung empfängt der Prozessor 1305 Farbwerte von Pixeln während des vorstehend beschriebenen Abtast- bzw. Ausleseprozesses aus dem Bildsensor 1309 und schreibt die empfangen Farbwerte für jedes Pixel in den Frame-Pufferspeicher 1930 unter Bezugnahme bzw. Verwendung einer Pufferspeicher-Schreibprozedur, die durch Programm-Codezeilen realisiert ist, und zwar in Entsprechung zu einem bestimmten Orientierungstyp. Einzelheiten der Pufferspeicher-Schreibprozedur können den Beschreibungen der 20 bis 22 entnommen werden. Wenn die Pufferspeicher-Schreibprozedur eingesetzt wird, kann das erfasste Bild gedreht und in dem Frame-Pufferspeicher 1930 gespeichert werden. Der Videokodierer 1312 erfasst anschließend ein Bild durch serielles Auslesen von Farbwerten aus dem Frame-Pufferspeicher 1312 und kodiert das erfasste Bild durch Ausführen von MPEG-Verfahren, H.26x-Kodierungsverfahren und dergleichen in einen Videobitstream.

Die 29 ist eine schematische Darstellung eines Ausführungsbeispiels einer Pipeline zur Videokodierung. Die Pipeline zur Videokodierung umfasst den Prozessor 1305, Speicher 1306, Bildsensor 1309, Videokodierer 1312, Bild-DMA-Controller 1910, der vorzugsweise auf dem Sensorcontroller und Bildprozessor 1310 resident ist, und den Frame-Pufferspeicher 1930, der vorzugsweise auf dem Speicher 1306 resident ist. Während der Videokodierung empfängt der Bild-DMA-Controller 1910 Farbwerte von Pixeln gemäß dem vorstehend beschriebenen Abtast- bzw. Ausleseprozess aus dem Bildsensor 1309 und schreibt die empfangenen Farbwerte von jedem Pixel in den Frame-Pufferspeicher 1930, und zwar vom Beginn bis zum Ende. Der Prozessor 1305 erfasst ein Bild durch Auslesen von Farbwerten aus dem Frame-Pufferspeicher 1312 unter Referenz bzw. Verwendung einer Pufferspeicher-Ausleseprozedur, die durch Programm-Codezeilen realisiert ist, und zwar in Entsprechung zu einem bestimmten Orientierungstyp. Einzelheiten der Pufferspeicher-Ausleseprozedur können aus den Beschreibungen der 25 und 26 abgeleitet werden. Es sei darauf hingewiesen, dass die Schritte S2545 und S2645 mit der Ausgabe des neu erfassten Blocks, der als Block [block_count] bezeichnet ist, an den Videokodierer 1312 aktualisiert werden. Wenn die Pufferspeicher-Ausleseprozedur eingesetzt wird, kann das erfasste Bild gedreht und an den Videokodierer 1312 ausgegeben werden. Anschließend erfasst der Videokodierer ein Bild durch serielles Auslesen von Farbwerten aus dem Frame-Pufferspeicher 1312 und kodiert das erfasste Bild durch Ausführen eines MPEG-Kodierverfahrens, H.26x-Kodierverfahrens oder eines anderen Kodierverfahrens in einen Videobitstream.

Die Verfahren zur Erfassung und zum Anzeigen von Bildern von Objekten, oder gewisse Aspekte oder Teilaspekte davon, können die Form von Programm-Codezeilen (das heißt Instruktionen) annehmen, die als greifbare Medien, beispielsweise Disketten, CD-ROMS, Festplatten bzw. Festplattenlaufwerke, oder als ein beliebiges anderes maschinenlesbares Speichermedium verkörpert sein können, wobei, wenn die Programm-Codezeilen in ein Gerät geladen und von diesem ausgeführt werden, beispielsweise von einem Handy, Computer, DVD-Rekorder oder dergleichen, das Gerät zu einer Vorrichtung zum Ausführen der vorliegenden Erfindung wird. Die offenbarten Verfahren können auch in Gestalt von Programm-Codezeilen verkörpert sein, die über ein gewisses Datenübertragungsmedium übermittelt werden, beispielsweise eine elektrische Verkabelung, über Glasfaseroptiken oder über eine beliebige andere Form von Datenübermittlung, wobei dann, wenn die Programm-Codezeilen von einem Gerät empfangen und in dieses geladen und ausgeführt werden, beispielsweise ein Handy, Computer, das Gerät zu einer Vorrichtung zum Ausführen der vorliegenden Erfindung wird. Wenn die Programm-Codezeilen auf einem Universalprozessor realisiert bzw. ausgeführt werden, sorgen diese gemeinsam mit dem Prozessor für eine einzigartige Vorrichtung, die entsprechend zu speziellen Logikschaltungen betrieben werden kann.

Gewisse Ausdrücke bzw. Bezeichnungsweisen wurden in der gesamten Beschreibung und in den Ansprüchen verwendet, um sich auf bestimmte Systemkomponenten zu beziehen. Der Fachmann auf diesem Gebiet wird erkennen, dass Gerätehersteller der Consumerelektronik diese Komponenten bzw. Bauelemente in unterschiedlicher Weise bezeichnen können. Diese Anmeldung soll deshalb nicht zwischen Komponenten bzw. Bauelementen unterscheiden, die nur hinsichtlich des Namens, nicht jedoch hinsichtlich ihrer Funktion voneinander unterschieden sind.

Wenngleich die Erfindung anhand von bevorzugten Ausführungsbeispielen beschrieben worden ist, ist diese nicht darauf beschränkt. Der Fachmann auf diesem Gebiet kann zahlreiche Abänderungen und Modifikationen vornehmen, ohne von dem Schutzbereich und dem allgemeinen Lösungsgedanken der Erfindung abzuweichen. Deshalb soll der Schutzbereich der Erfindung durch die nachfolgenden Ansprüche und deren technische Äquivalente festgelegt und geschützt werden.


Anspruch[de]
Verfahren zum Erzeugen eines Bildobjekts, zur Ausführung durch ein elektronisches Gerät, das eine Mehrzahl von Auslöser- bzw. Verschlussobjekten (310, 1332, 1321, 1322) umfasst, wobei jedes der Mehrzahl von Auslöserobjekten einem Orientierungstyp entspricht, mit den folgenden Schritten:

ein Signal wird detektiert, das von einem der Mehrzahl von Auslöserobjekten erzeugt wurde;

in Entsprechung zu dem Auslöserobjekt, welches das Signal erzeugt, wird ein Orientierungstyp bestimmt; und

das Bildobjekt wird gemeinsam mit dem so bestimmten Orientierungstyp gespeichert oder das Bildobjekt wird in Entsprechung zu dem so bestimmten Orientierungstyp gedreht.
Verfahren nach Anspruch 1, bei dem außerdem eine Information, die Abbildungsbeziehungen zwischen den Auslöserobjekten und den Orientierungstypen anzeigt, bereitgestellt wird und der Orientierungstyp in Entsprechung zu dem Auslöserobjekt, welches das Signal erzeugt, und der Information bestimmt wird. Verfahren nach Anspruch 2, wobei die Information in Entsprechung zur Anordnung eines Bildsensors (1309) bereitgestellt wird, der sich in dem elektronischen Gerät befindet. Verfahren nach einem der vorhergehenden Ansprüche, wobei der so bestimmte Orientierungstyp in einem Orientierungskennzeichen einer Festbild-Headerdatei abgespeichert wird, die kompatibel zu dem EXIF-Format (Exchangeable Image File Format) ist. Verfahren nach einem der Ansprüche 1 bis 3, wobei der so bestimmte Orientierungstyp in einer Nutzerdaten-Box (user data box) einer MPEG-Datei gespeichert wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei der so bestimmte Orientierungstyp eine der nachfolgenden Darstellungssituationen anzeigt:

Zeile 0 des gespeicherten Bildobjekts wird am oberen Rand und Spalte 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am oberen Rand und Spalte 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am unteren Rand und Spalte 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am unteren Rand und Spalte 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der linken Seite und Spalte 0 des gespeicherten Bildobjekts wird am oberen Rand angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am oberen Rand angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am unteren Rand angezeigt; und

Zeile 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am unteren Rand angezeigt.
Verfahren nach einem der vorhergehenden Ansprüche, wobei das Bildobjekt in Reaktion bzw. Entsprechung zu dem gespeicherten Orientierungstyp angezeigt werden soll. System zum Erzeugen eines Bildobjekts, umfassend:

ein erstes Auslöser- bzw. Verschlussobjekt (1322);

ein zweites Auslöser- bzw. Verschlussobjekt (1321); und

einen Prozessor (1305), der mit dem ersten und zweiten Auslöserobjekt gekoppelt ist, ein Signal detektiert, bestimmt, ob das Signal von dem ersten Auslöserobjekt oder von dem zweiten Auslöserobjekt erzeugt wurde, einen ersten Orientierungstyp bestimmt, wenn das Signal von dem ersten Auslöserobjekt erzeugt wurde, einen zweiten Orientierungstyp bestimmt, wenn das Signal von dem zweiten Auslöserobjekt erzeugt wurde, und das Bildobjekt gemeinsam mit dem so bestimmten Orientierungstyp speichert oder das Bildobjekt in Entsprechung zu dem so bestimmten Orientierungstyp dreht;

wobei das Bildobjekt in Reaktion bzw. Entsprechung zu dem gespeicherten Orientierungstyp angezeigt werden soll.
System nach Anspruch 8, wobei der Prozessor (1305) Abbildungsbeziehungen bereitstellt, die anzeigen, dass das erste Auslöserobjekt (1322) dem ersten Orientierungstyp entspricht und das zweite Auslöserobjekt (1321) dem zweiten Orientierungstyp entspricht. System nach Anspruch 9, wobei der erste Orientierungstyp oder der zweite Orientierungstyp in Entsprechung zu den bereitgestellten Abbildungsbeziehungen bestimmt wird. System nach einem der Ansprüche 8 bis 10, weiterhin umfassend ein vorderes Bedienfeld und eine Seitenfläche, wobei eine Hardware-Auslösertaste (310) auf einer Tastatur angeordnet ist, die auf dem vorderen Bedienfeld vorgesehen ist, ein Auslöserknopf (1332) auf der Seitenfläche vorgesehen ist, zumindest ein Softkey (1321, 1322) auf einem Sensorbildschirm angezeigt wird, der auf dem vorderen Bedienfeld vorgesehen ist, und das erste und zweite Auslöserobjekt durch eine beliebige Kombination der Hardware-Auslösertaste, des Auslöserknopfs und des zumindest einen Softkeys realisiert ist. System nach einem der Ansprüche 8 bis 11, wobei der so bestimmte Orientierungstyp in einem Orientierungskennzeichen einer Festbild-Headerdatei abgespeichert ist, die kompatibel zu dem EXIF-Format (Exchangeable Image File Format) ist. System nach einem der Ansprüche 8 bis 11, wobei der so bestimmte Orientierungstyp in einer Nutzer-Datenbox (user data box) einer MPEG-Datei gespeichert ist. System nach einem der Ansprüche 8 bis 13, wobei der so bestimmte Orientierungstyp eine der nachfolgenden Darstellungssituationen anzeigt:

Zeile 0 des gespeicherten Bildobjekts wird am oberen Rand und Spalte 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am oberen Rand und Spalte 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am unteren Rand und Spalte 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am unteren Rand und Spalte 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der linken Seite und Spalte 0 des gespeicherten Bildobjekts wird am oberen Rand angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am oberen Rand angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am unteren Rand angezeigt; und

Zeile 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am unteren Rand angezeigt.
Verfahren zum Erzeugen eines Bildobjekts, zur Ausführung durch ein elektronisches Gerät, das eine Anzeige umfasst, die eine Icon-Anzeige anzeigt, mit den folgenden Schritten:

Bestimmen eines Signals;

Bestimmen eines Orientierungstyps in Entsprechung zu einer Richtung, die von der angezeigten Icon-Anzeige angezeigt wird; und

Speichern des Bildobjekts gemeinsam mit dem so bestimmten Orientierungstyp oder Drehen des Bildobjekts in Entsprechung zu dem so bestimmten Orientierungstyp.
Verfahren nach Anspruch 15, weiterhin umfassend die Bereitstellung einer Information, die Abbildungsbeziehungen zwischen Richtungen, die von der angezeigten Anzeige angezeigt werden, und Orientierungstypen anzeigt, wobei der Orientierungstyp in Entsprechung zu der von der angezeigten Anzeige angezeigten Richtung und der Information bestimmt wird. Verfahren nach einem der Ansprüche 15 oder 16, wobei die Icon-Anzeige durch Niederdrücken einer Hardwaretaste auf einem Tastaturfeld des elektronischen Geräts oder durch Anklicken eines Bereichs gedreht wird, der die Icon-Anzeige auf dem Bildschirm anzeigt. System zum Erzeugen eines Bildobjekts, umfassend:

einen Bildschirm, der eine Icon-Anzeige anzeigt; und

einen Prozessor (1305), der mit dem ersten und zweiten Auslöserobjekt gekoppelt ist, ein Signal detektiert, bestimmt, ob das Signal von dem ersten Auslöserobjekt oder von dem zweiten Auslöserobjekt erzeugt wurde, einen ersten Orientierungstyp bestimmt, wenn das Signal von dem ersten Auslöserobjekt erzeugt wurde, einen zweiten Orientierungstyp bestimmt, wenn das Signal von dem zweiten Auslöserobjekt erzeugt wurde, und das Bildobjekt gemeinsam mit dem so bestimmten Orientierungstyp speichert oder das Bildobjekt in Entsprechung zu dem so bestimmten Orientierungstyp dreht;

wobei das Bildobjekt in Reaktion bzw. Entsprechung zu dem gespeicherten Orientierungstyp angezeigt werden soll.
Verfahren nach Anspruch 18, wobei der Prozessor eine Information bereitstellt, die Abbildungsbeziehungen zwischen Richtungen, die von der angezeigten Anzeige angezeigt werden, und Orientierungstypen anzeigt. System nach Anspruch 19, wobei der Prozessor den Orientierungstyp in Entsprechung zu der Richtung, die von der angezeigten Anzeige angezeigt wird, und der Information bestimmt. System nach einem der Ansprüche 18 bis 20, weiterhin umfassend ein Tastaturfeld, das eine Hardwaretaste umfasst, wobei die angezeigte Icon-Anzeige durch Niederdrücken der Hardwaretaste gedreht wird. System nach einem der Ansprüche 18 bis 20, wobei die angezeigte Icon-Anzeige durch Anklicken eines Bereichs gedreht wird, der die Icon-Anzeige auf dem Bildschirm anzeigt. Verfahren zum Erzeugen eines Bildobjekts, zur Ausführung durch ein elektronisches Gerät, mit den folgenden Schritten:

Bereitstellen eines Orientierungstyps;

Empfangen einer Mehrzahl von Farbwerten für Pixel eines erfassten Bilds von einem Bildsensor des elektronischen Geräts, wobei die Reihenfolge von Pixeln des erfassten Bilds einem vorbestimmten Prozess folgt, der eine Mehrzahl von Zellen des Bildsensors abtastet bzw. ausliest;

Bestimmen bzw. Festlegen einer Pufferspeicher-Schreibprozedur aus einer Mehrzahl von Pufferspeicher-Schreibprozeduren in Entsprechung zu dem Orientierungstyp;

Schreiben der erfassten Farbwerte für jedes Pixel in einen relevanten Bereich eines Frame-Pufferspeichers des elektronischen Geräts durch Ausführen der so bestimmten Pufferspeicher-Schreibprozeduren; und

Auslesen der Farbwerte für Pixel von oben nach unten aus dem Frame-Pufferspeicher, um das Bildobjekt zu erzeugen, das aus dem erfassten Bild gedreht ist.
Verfahren nach Anspruch 23, weiterhin umfassend, dass ein Signal empfangen wird, wobei der Orientierungstyp in Entsprechung zu einer Information bestimmt wird, die anzeigt, dass das Signal durch ein Auslöser- bzw. Verschlussobjekt von einer Mehrzahl von Auslöserobjekten erzeugt wurde. Verfahren nach Anspruch 23 oder 24, wobei der Orientierungstyp in Entsprechung zu einer Richtung bestimmt wird, die von einer angezeigten Icon-Anzeige angezeigt wird. Verfahren nach einem der Ansprüche 23 bis 25, wobei der so bestimmte Orientierungstyp eine der nachfolgenden Darstellungssituationen anzeigt:

Zeile 0 des gespeicherten Bildobjekts wird am oberen Rand und Spalte 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am oberen Rand und Spalte 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am unteren Rand und Spalte 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird am unteren Rand und Spalte 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der linken Seite und Spalte 0 des gespeicherten Bildobjekts wird am oberen Rand angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am oberen Rand angezeigt;

Zeile 0 des gespeicherten Bildobjekts wird an der rechten Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am unteren Rand angezeigt; und

Zeile 0 des gespeicherten Bildobjekts wird an der linken Seite angezeigt und Spalte 0 des gespeicherten Bildobjekts wird am unteren Rand angezeigt.
System zum Erzeugen eines Bildobjekts, umfassend

einen Bildsensor (1309);

einen Prozessor (1305);

einen Frame-Pufferspeicher (1306);

einen Bild-DMA-Controller bzw. Controller für einen Direktzugriff auf einen Bildspeicher (1910), der mit dem Bildsensor (1309), dem Prozessor (1305) und dem Frame-Pufferspeicher (1306) verbunden ist und Hardwareschaltkreise umfasst, um eine Mehrzahl von Pufferspeicher-Schreibprozeduren auszuführen; und

einen Videokodierer (1312), der mit dem Frame-Pufferspeicher (1930) verbunden ist,

wobei der Bild-DMA-Controller einen Orientierungstyp von dem Prozessor empfängt, eine Mehrzahl von Farbwerten für Pixel eines erfassten Bilds von dem Bildsensor empfängt, die Reihenfolge der Pixel des erfassten Bilds einem vorbestimmten Prozess folgt, der eine Mehrzahl von Zellen des Bildsensors abtastet bzw. ausliest, der Bild-DMA-Controller eine der Pufferspeicher-Schreibprozeduren in Entsprechung zu dem Orientierungstyp bestimmt bzw. festlegt und die empfangenen Farbwerte für jedes Pixel in einen relevanten Bereich des Frame-Pufferspeichers durch Ausführen der so bestimmten Pufferspeicher-Schreibprozedur schreibt, wobei der Videokodierer (1312) die Farbwerte für Pixel von oben nach unten aus dem Frame-Pufferspeicher ausliest, um das Bildobjekt zu erzeugen, das aus dem erfassten Bild gedreht wurde.
System nach Anspruch 27, weiterhin umfassend eine Mehrzahl von Auslöser- bzw. Verschlussobjekten, wobei der Prozessor den Orientierungstyp in Entsprechung zu einer Information bestimmt, die ein Signal anzeigt, das durch ein Auslöseobjekt erzeugt wurde. System nach Anspruch 27 oder 28, weiterhin umfassend eine Anzeige zum Anzeigen einer Icon-Anzeige, wobei der Prozessor den Orientierungstyp in Entsprechung zu einer Richtung bestimmt, die von der angezeigten Icon-Anzeige angezeigt wird. System nach Anspruch 29, weiterhin umfassend ein Tastaturfeld, das eine Hardwaretaste umfasst, wobei die Icon-Anzeige durch Niederdrücken der Hardwaretaste gedreht wird. System nach Anspruch 29, wobei die Icon-Anzeige durch Anklicken eines Bereichs gedreht wird, der die Icon-Anzeige auf dem Bildschirm anzeigt. Verfahren zum Erzeugen eines Bildobjekts, zur Ausführung durch ein elektronisches Gerät, mit den folgenden Schritten:

Bereitstellen eines Orientierungstyps;

Empfangen einer Mehrzahl von Farbwerten für Pixel eines erfassten Bilds von einem Bildsensor des elektronischen Geräts, wobei die Reihenfolge von Pixeln des erfassten Bilds einem vorbestimmten Prozess folgt, der eine Mehrzahl von Zellen des Bildsensors abtastet, bzw. ausliest;

Schreiben der empfangenen Farbwerte für jedes Pixel in einen Bereich eines Frame-Pufferspeichers des elektronischen Geräts von oben nach unten; Bestimmen bzw. Festlegen von einer Pufferspeicher-Ausleseprozedur von einer Mehrzahl von Pufferspeicher-Ausleseprozeduren in Entsprechung zu dem Orientierungstyp; und

Auslesen der Farbwerte für jedes Pixel aus einem relevanten Bereich des Frame-Pufferspeichers durch Ausführen der so bestimmten Pufferspeicher-Ausleseprozedur, um das Bildobjekt zu erzeugen, das aus dem erfassten Bild gedreht wurde.
System zum Erzeugen eines Bildobjekts, umfassend:

einen Bildsensor (1309);

einen Prozessor (1305);

einen Frame-Pufferspeicher (1930);

einen Bild-DMA-Controller bzw. Controller für einen Direktzugriff auf einen Bildspeicher (910), der mit dem Bildsensor, dem Prozessor und dem Frame-Pufferspeicher verbunden ist; und

einen Videokodierer (1312) der mit dem Frame-Pufferspeicher verbunden ist und Hardwareschaltkreise umfasst, die eine Mehrzahl von Pufferspeicher-Ausleseprozeduren ausführen,

wobei der Bild-DMA-Controller (1910) eine Mehrzahl von Farbwerten für Pixel eines erfassten Bilds von dem Bildsensor (1309) empfängt, die Reihenfolge der Pixel des erfassten Bilds einem vorbestimmten Prozess folgt, der eine Mehrzahl von Zellen des Bildsensors abtastet bzw. ausliest, der Bild-DMA-Controller (1910) die empfangenen Farbwerte für jedes Pixel in einen Bereich des Frame-Pufferspeichers von oben nach unten schreibt, der Videokodierer (1312) einen Orientierungstyp von dem Prozessor empfängt, eine Pufferspeicher-Ausleseprozedur in Entsprechung zu dem Orientierungstyp bestimmt bzw. festlegt und die Farbwerte für jedes Pixel aus einem relevanten Bereich des Frame-Pufferspeichers durch Ausführen der bestimmten bzw. festgelegten Pufferspeicher-Ausleseprozedur ausliest, um das Bildobjekt zu erzeugen, das aus dem erfassten Bild gedreht wurde.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com