PatentDe  


Dokumentenidentifikation DE69738062T2 03.01.2008
EP-Veröffentlichungsnummer 0000828382
Titel Hochauflösende Bildaufnahmevorrichtung
Anmelder Casio Computer Co., Ltd., Tokio/Tokyo, JP
Erfinder Iwanaga, Masakuni, 3-chome, Hamura-shi, Tokyo 205, JP
Vertreter Grünecker, Kinkeldey, Stockmair & Schwanhäusser, 80538 München
DE-Aktenzeichen 69738062
Vertragsstaaten DE, FR, GB
Sprache des Dokument EN
EP-Anmeldetag 22.07.1997
EP-Aktenzeichen 971125281
EP-Offenlegungsdatum 11.03.1998
EP date of grant 29.08.2007
Veröffentlichungstag im Patentblatt 03.01.2008
IPC-Hauptklasse H04N 3/15(2006.01)A, F, I, 20051017, B, H, EP

Beschreibung[de]

Eine herkömmliche Bildaufnahmevorrichtung umfasst einen Lichtempfangsabschnitt, wie beispielsweise eine CCD (Charge Coupled Device), die Lichtempfangselemente besitzt, die in einem Matrix-Muster angeordnet sind. Der Lichtempfangsabschnitt erfasst, als eine große Anzahl von Abtast-Punkten, das Objekt, das fotografiert werden soll, oder das Bild, das aufgenommen werden soll. Ausgangssignale, die die einzelnen Abtast-Punkte darstellen, werden von einem Bildsignal erfasst. Deshalb wird die Auflösung dann, wenn das Bild aufgenommen wird, durch die Zahl von Lichtempfangselementen bestimmt. Normalerweise steigen die Kosten der CCD in dem Fall, bei dem die Anzahl von Lichtempfangselementen erhöht wird, an, sogar obwohl die Integrationsdichte des Lichtempfangsabschnitts nicht erhöht wird. Um die Integrationsdichte ohne eine Änderung in der Größe des Bereichs, der durch den Lichtempfangsabschnitt oder die CCD belegt ist, zu verbessern, ist es notwendig, die Herstellungsgenauigkeit zu verbessern. Dies führt dazu, dass die Kosten der CCD weiter ansteigen.

Ein Verfahren, das als Maßnahme vorgeschlagen ist, um das Vorstehende zu lösen, wird nun beschrieben. Die Positionen der Abtast-Punkte in Bezug auf den Lichtempfangsabschnitt werden, entsprechend diesem Verfahren, mechanisch oder optisch in Folge geändert. Die Abtast-Punkte werden durch irgendeines der Lichtempfangselemente erfasst. Die Ausgangssignale entsprechend zu den erfassten Abtast-Punkten werden synchron zu Änderungen der Positionen der Abtast-Punkte ausgegeben, und, als eine Folge, wird eine Vielzahl von Bildsignalen erzeugt. Bei diesem Verfahren muss die Integrationsdichte nicht erhöht werden.

In dem vorstehenden Verfahren kann die Struktur, mit der der Lichtempfangsabschnitt in Längsrichtung oder in Breitenrichtung bewegt wird, als Einrichtung für ein mechanisches Bewegen der Abtastpunkte verwendet werden. Die Struktur, mit der der Neigungswinkel, die Neigungsrichtung, die Dicke, usw., eines Licht brechenden Elements geändert wird, kann als Einrichtung für ein optisches Bewegen der Abtastpunkte verwendet werden.

Die Ausgangssignale, die als die Bildsignale dienen, und die Abtastpunkte darstellen, die bewegt werden und durch irgendeines der Lichtempfangselemente erfasst werden, sind Gegenstand der Interpolation. Die Interpolation ist die Verarbeitung, mit der Pixel-Daten in den einzelnen Bildsignalen, die in Folge erzeugt sind, an den Mittelpunkten der Lichtempfangselemente der CCD angeordnet sind. End-Pixel-Anordnungsdaten werden über die Interpolation erhalten.

1A bis 1D zeigen Diagramme, die Beispiele der Interpolation darstellen, um die End-Pixel-Anordnungsdaten zu erhalten.

In den 1A bis 1D sind Farbfilter, die auf schwarzen Masken montiert sind, vor den Lichtempfangselementen des Lichtempfangsabschnitts vorgesehen. Jede schwarze Maske ist mit Blenden versehen. Jede Blende bzw. Blende ist so gebildet, dass das Licht, das dort hindurchfährt, auf die allgemeine Mitte deren entsprechenden Lichtempfangselements projiziert wird. Der Lichtempfangsabschnitt umfasst, wie in 1A dargestellt ist, vier Blenden A, B, C und D, die in einem 2×2-Matrix-Muster angeordnet sind. Die Blenden liegen in einer eins-zu-eins Korrespondenz zu den Lichtempfangselementen vor. Dabei ist ein Intervall gleich zu der Länge oder der Breite von 1 Blende zwischen den Blenden jedes seitlich oder vertikal angrenzenden Paars unter den Blenden A bis D vorhanden.

Jedes Lichtempfangselement erfasst aufeinander folgend vier Abtast-Punkte von dem Objekt, das fotografiert werden soll, und die Interpolation wird in Bezug auf das Bild, das als dasjenige des Objekts erhalten ist, durchgeführt. Für ein einfaches Verständnis wird in der nachfolgenden Erläuterung angenommen, dass die Blenden, die oberhalb der Lichtempfangselemente angeordnet sind, bewegt werden.

Zuerst werden, wie in 1B dargestellt ist, die Blenden A bis D entsprechend zu den Lichtempfangselementen um eine 0,5 Element-Teilung nach rechts bewegt. Als eine Folge ist die Blende A benachbart zu der rechten Seite deren Anfangsposition und an dieser angeordnet. Die Blende B ist angrenzend an die rechte Seite deren Anfangsposition und an dieser angeordnet. Die Blende C ist angrenzend an die rechte Seite deren Anfangsposition und an dieser angeordnet. Die Blende D ist angrenzend an die rechte Seite deren Anfangsposition und an dieser angeordnet.

Danach werden, wie in 1C dargestellt ist, die Blenden A bis D um eine 0,5 Element-Teilung nach unten bewegt. Folglich ist die Blende A direkt unter der Position angeordnet, die die Blende A erreicht hat, und zwar als eine Folge deren vorheriger Bewegung. Die Blende B ist direkt unter der Position angeordnet, die die Blende B als eine Folge der vorherigen Bewegung erreicht hat. Die Blende C ist direkt unter der Position angeordnet, die die Blende C als eine Folge der vorherigen Bewegung erreicht hat. Die Blende D ist direkt unter der Position angeordnet, die die Blende D als eine Folge der vorherigen Bewegung erreicht hat.

Danach werden, wie in 1D dargestellt ist, die Blenden A bis D weiter um eine 0,5 Element-Teilung nach links bewegt. Demzufolge ist die Blende A angrenzend zu der linken Seite der Position, die die Blende B erreicht hat, und an dieser, als eine Folge der vorherigen Bewegung, angeordnet. Die Blende B ist angrenzend an die linke Seite der Position angeordnet und befindet sich an dieser, die die Blende B als eine Folge der vorherigen Bewegung erreicht hat. Die Blende C ist angrenzend an die linke Seite der Position angeordnet und befindet sich an dieser, die die Blende C als eine Folge der vorherigen Bewegung erreicht hat. Die Blende D ist angrenzend an die linke Seite der Position angeordnet, und befindet sich an dieser, die die Blende D als eine Folge der vorherigen Bewegung erreicht hat.

1D stellt die End-Pixel-Anordnungsdaten dar, die in der vorstehend beschriebenen Art und Weise erhalten sind. In den End-Pixel-Anordnungsdaten sind die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, angrenzend aneinander angeordnet. Genauer gesagt sind, von den Pixeldaten, vier Pixel-Daten-Elemente, die das Licht darstellen, das durch die Blende A hindurchgeführt ist, angrenzend zueinander angeordnet, und vier Pixeldaten-Elemente, die das Licht darstellen, das durch die Blende B hindurchgeführt ist, sind angrenzend zueinander und an der rechten Seite der Gruppe angeordnet, die aus den Pixeldaten-Elementen gebildet ist, die das Licht darstellen, das durch die Blende A hindurchgeführt ist. Vier Pixeldaten-Elemente, die das Licht darstellen, das durch die Blende C hindurchgeführt ist, sind angrenzend zueinander und unter der Gruppe, die aus den Pixeldaten-Elementen gebildet ist, die das Licht darstellen, das durch die Blende A hindurchgeführt ist, angeordnet. Vier Pixeldaten-Elemente, die das Licht darstellen, das durch die Blende D hindurchgeführt ist, sind angrenzend zueinander und unter der Gruppe angeordnet, die aus den Pixeldaten-Elementen gebildet ist, die das Licht darstellen, das durch die Blende B hindurchgeführt ist. Durch Verarbeiten der End-Pixel-Anordnungsdaten, die vorstehend beschrieben sind, werden ein Luminanzsignal Y und Farb-Differenzsignale R-Y und B-Y erhalten. Die Signale Y, R-Y und B-Y werden als die End-Pixel-Anordnungsdaten reproduziert, die die Pixel-Anordnung haben, die in 1D dargestellt ist, wodurch das aufgenommene Bild reproduziert wird. Mit diesem Verfahren wird die Auflösung ohne eine Änderung in der Integrationsdichte der Lichtempfangselemente verbessert.

Allerdings befinden sich, entsprechend dem vorstehenden Verfahren, wie es in 1D dargestellt ist, die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, angrenzend zueinander in den End-Pixel-Anordnungsdaten. In diesem Fall bilden vier Arten von Pixeldaten, die das Licht darstellen, das durch die Blenden hindurchgeführt ist, Gruppen entsprechend den jeweiligen Arten. Unter diesem Zustand wird die Auflösung dann, wenn eine Gruppe von angrenzenden Pixeldaten entsprechend zu derselben Farbe als ein einzelnes Pixeldaten-Element angesehen wird, nicht verbessert. Demzufolge ist die Daten-Präzision des Chrominanz-Signals Y und der Farb-Differenzsignale R-Y und B-Y niedrig, und die horizontale und die vertikale Auflösung werden nicht zufrieden stellend verbessert. Dies verhindert, dass eine herkömmliche Bildaufnahmevorrichtung eine zufrieden stellend hohe Funktionsweise besitzt.

Die EP 0 627 848 beschreibt, wie einfallendes Licht durch eine ebene Platte gebrochen wird, die festgelegt in Bezug auf die optische Achse geneigt ist, bevor es auf einer Bildaufnahmefläche eines Bildsensors abgebildet wird. Die ebene Platte dreht sich um die optische Achse oder eine Achse parallel zu der optischen Achse. Entsprechend der Drehbewegung der ebenen Platte bewegt sich die durch das einfallende Licht abgebildete Position auf der Bildaufnahmefläche des Bildsensors. Lichtbereiche, die ursprünglich auf Spaltbereiche zwischen benachbarten Lichtempfangselementen des Bildsensors abgebildet sind, bewegen sich in die Lichtempfangselemente hinein. Der Bildsensor kann deshalb diese Bildbereiche aufnehmen, die ursprünglich auf die Zwischenraumbereiche abgebildet sind, und die deshalb nicht durch den Bildsensor aufgenommen werden können.

Die US 5 402 171 beschreibt eine elektronische Standbildkamera, die einen Festkörper-Bildsensor zum Ausgeben eines Farbbildsignals entsprechend einem auffallenden optischen Bilds, einen Signalprozessor für eine Signalverarbeitung des Farbbildsignals von dem Festkörper-Bildsensor, um ein Farb-Standbild-Signal zu erzeugen, ein Aufzeichnungsgerät zum Aufzeichnen des Farb-Standbild-Signals, das durch den Signalprozessor erzeugt ist, und einen Antrieb, um zumindest entweder das optische Bild oder den Festkörper-Bildsensor von einer Ausgangsposition in einer horizontalen Richtung um eine Pixel-Teilung und in einer schrägen, axialen Richtung, die durch horizontale und vertikale Linien definiert ist, die sich jeweils von der Ausgangsposition in der horizontalen und der vertikalen Richtung erstrecken, um die Hälfte der Pixel-Teilung zu bewegen, aufweist.

Die Aufgabe, die der Erfindung zu Grunde liegt, ist diejenige, die Bildqualität zu verbessern. Diese Aufgabe wird durch die Merkmale des Anspruchs 1 gelöst, wobei bevorzugte Ausführungsformen in den Unteransprüchen angegeben sind.

Gemäß dem vorstehend beschriebenen Aufbau erfasst irgendein Lichtempfangselement des Lichtempfangsabschnitts aufeinander folgend Licht, das Abtastpunkte des Bilds des Objekts, das fotografiert werden soll, darstellt, und eine Vielzahl von Bildsignalen wird erzeugt. Dies verbessert die Auflösung, ohne dass die Integrationsdichte geändert werden muss. Der Lichtempfangsabschnitt umfasst Sätze von Lichtempfangselementen, und Blenden werden orthografisch in unterschiedlichen Positionen auf die Lichtempfangsflächen der Lichtempfangselemente jedes Satzes projiziert. Die Blenden werden offensichtlich zu vorbestimmten Positionen auf den Lichtempfangsflächen bewegt. Die Pixeldaten, wie sie erzeugt sind, sind so angeordnet, dass sich Pixeldaten, die die Intensität des Lichts darstellen, das durch unterschiedliche Blenden hindurchgeführt ist, aneinandergrenzend zueinander befinden. Deshalb wird, mit der End-Pixel-Anordnung, die durch die vorstehend angegebene Verarbeitung (Interpolation) der Anordnung der Pixeldaten erreicht wird, die Auflösung, wenn eine Gruppe von aneinandergrenzenden Pixeldaten entsprechend zu derselben Farbe als ein einzelnes Pixeldatenelement angesehen wird, verbessert (mit anderen Worten ist die End-Pixel-Anordnung feiner als diejenige des herkömmlichen Falls).

Die Anordnung der Pixeldaten in den End-Pixel-Anordnungsdaten nach der Interpolation ist dieselbe wie diejenige der Lichtempfangselemente vor der Interpolation. Dementsprechend ist die Daten-Präzision des Luminanz-Signals und des Farb-Differenzsignals hoch. Weiterhin werden die horizontale und die vertikale Auflösung verbessert. Unter den vorstehend beschriebenen Bedingungen wird die Funktionsweise der Bildaufnahmevorrichtung wesentlich verbessert.

Kurze Beschreibung der Zeichnungen:

1A bis 1D stellen das Verfahren zum Bilden herkömmlicher End-Pixel-Anordnungsdaten dar;

1A zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Blenden A bis D, die vor vier Lichtempfangselementen, die einen Satz bilden, angeordnet sind, darstellt;

1B zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen den Blenden darstellt, nachdem sie um eine 0,5 Element-Teilung nach rechts bewegt sind;

1C zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen den Blenden darstellt, nachdem sie weiter um eine 0,5 Element-Teilung nach unten bewegt sind;

1D zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen den Blenden darstellt, nachdem sie weiter um eine 0,5 Element-Teilung nach links bewegt sind;

2 zeigt ein Diagramm, das den Aufbau einer Bildaufnahmevorrichtung entsprechend der ersten Ausführungsform der vorliegenden Erfindung darstellt;

3A zeigt ein Diagramm, das die Korrespondenz von vier Blenden des Lichtempfangsabschnitts, dargestellt in 2, zu Abtastpunkten darstellt;

3B zeigt ein Diagramm, das den Weg eines Lichtstrahls von Abtastpunkten, wenn der Lichtstrahl schräg nach unten zu der rechten Seite hin in Bezug auf die Laufrichtung des Lichtstrahls bricht, darstellt;

3C zeigt ein Diagramm, das den Weg eines Lichtstrahls von Abtastpunkten, wenn der Lichtstrahl schräg nach unten zu der linken Seite hin in Bezug auf die Laufrichtung des Lichtstrahls bricht, darstellt;

3D zeigt ein Diagramm, das den Weg eines Lichtstrahls von Abtastpunkten, wenn der Lichtstrahl schräg nach oben zu der rechten Seite hin in Bezug auf die Laufrichtung des Lichtstrahls bricht, darstellt;

3E zeigt ein Diagramm, das den Weg eines Lichtstrahls von Abtastpunkten, wenn der Lichtstrahl schräg nach oben zu der linken Seite hin in Bezug auf die Laufrichtung des Lichtstrahls bricht, darstellt;

4 zeigt eine perspektivische Explosionsansicht, die, in einem vergrößerten Maßstab, den Hauptteil des Lichtempfangsabschnitts, dargestellt in 2, darstellt;

5 zeigt ein Blockdiagramm, das den Aufbau der Bildaufnahmevorrichtung, die in 2 gezeigt ist, darstellt;

6 zeigt ein Diagramm, das den Zeitablauf darstellt, unter dem die Bildaufnahmevorrichtung, die in 2 gezeigt ist, einen Fotografiervorgang durchführt;

7A bis 7E stellen das Verfahren zum Bilden von End-Pixel-Anordnungsdaten entsprechend der ersten Ausführungsform der vorliegenden Erfindung dar;

7A zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Blenden, die vor den vier Lichtempfangselementen, die einen Satz bilden, angeordnet sind, darstellt;

7B zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Pixeldaten darstellt, die durch die erste und die zweite Belichtung erhalten sind;

7C zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Pixeldaten darstellt, die durch die erste, die zweite und die dritte Belichtung erhalten sind;

7D zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Pixeldaten darstellt, die durch die erste bis vierte Belichtung erhalten sind;

7E zeigt ein Diagramm, das die Grundanordnung der Pixeldaten in der End-Pixeldaten-Anordnung darstellt;

8A bis 8E stellen das Verfahren zum Bilden von End-Pixel-Anordnungsdaten entsprechend der zweiten Ausführungsform der vorliegenden Erfindung dar;

8A zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Blenden darstellt, die vor den vier Lichtempfangselementen, die einen Satz bilden, angeordnet sind;

8B zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Pixeldaten darstellt, die durch die erste und die zweite Belichtung erhalten ist;

8C zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen Pixeldaten darstellt, die durch die erste, zweite und dritte Belichtung erhalten ist;

8D zeigt ein Diagramm, das die positionsmäßige Beziehung zwischen der ersten bis vierten Belichtung darstellt; und

8E zeigt ein Diagramm, das die Grundanordnung der Pixeldaten in der End-Pixeldaten-Anordnung darstellt.

Erste Ausführungsform

Die Bildaufnahmevorrichtung entsprechend der ersten Ausführungsform der vorliegenden Erfindung wird nun unter Bezugnahme auf die 2 bis 7 beschrieben.

2 zeigt ein Diagramm, das den Aufbau der Bildaufnahmevorrichtung darstellt. In 2 ist ein Lichtempfangsabschnitt 2 auf der Lichtempfangsfläche eines Lichtempfangssubstrats 1 vorgesehen. Der Lichtempfangsabschnitt 2 besitzt einen fotoempfindlichen Abschnitt, einen Übertragungsabschnitt für elektrische Ladung und eine große Anzahl von Lichtempfangselementen, die in einem Matrix-Muster gebildet sind. Eine Linse 3 ist vor dem Lichtempfangsabschnitt 2 (auf der Lichteinfallsseite davon) angeordnet. Ein Positionsänderungsmechanismus (Positionsänderungseinrichtung) 4 ist vor der Linse 3 (auf der Lichteinfallseite davon) angeordnet. Der Positionsänderungsmechanismus 4 ändert die Positionen, in denen Abtastpunkte des Bilds des Objekts, das fotografiert werden soll, projiziert werden. Der Positionsänderungsmechanismus 3 besitzt eine transparente, scheibenförmige, flache Platte 5, deren Hauptflächen parallel zueinander liegen, einen Haltering 6, eine Trageplatte 7 und piezoelektrische Elemente 8. Die flache Platte 5 ist in dem Haltering 6 befestigt. Ein kreisförmiges Loch 7a ist in dem Teil der Trageplatte 7 gebildet, durch den das Licht, das durch die flache Platte 5 hindurchtritt, eintreten soll. Die piezoelektrischen Elemente 8 sind zwischen der Trageplatte 7 und dem Haltering 6 vorgesehen und kippen dreidimensional die flache Platte 5 in Bezug auf eine optische Achse O. Wenn die Kontraktion der piezoelektrischen Elemente 8 elektrisch gesteuert wird, werden der Kippwinkel und die Kipprichtung der flachen Platte 5 in Bezug auf die optische Achse O geändert.

Wenn das Bild des Objekts, das fotografiert werden soll, aufgenommen wird, steuert die Bildaufnahmevorrichtung elektrisch die Kontraktion der piezoelektrischen Elemente 8, wodurch der Kippwinkel und die Kipprichtung der flachen Platte 5 in Bezug auf die optische Achse O geändert werden. Licht, das von den einzelnen Abtastpunkten auf das Objekt, das fotografiert werden soll, trifft, verschiebt sich entsprechend dem Kippwinkel und der Kipprichtung der flachen Platte 5 in Bezug auf die optische Achse O und tritt in die Lichtempfangselemente des Lichtempfangsabschnitt 2 über die Linse 3 ein. In diesem Fall erfasst jedes Lichtempfangselement aufeinander folgend Lichtstrahlen, die benachbarte Abtastpunkte darstellen. Signale, die die erfassten Abtastpunkte darstellen, werden synchron zu den Änderungen der Positionen, in denen die Abtastpunkte projiziert werden, ausgegeben. Demzufolge wird eine Vielzahl von Bildsignalen erzeugt.

Entsprechend der vorstehend beschriebenen Bildaufnahmevorrichtung werden vier Lichtprojektionspositionen SA1, SA2, SA3 und SA4, die in 3A dargestellt sind, und wobei die vier Lichtstrahlen, die von vier Abtastpunkten reflektiert sind, dann, wenn sie nicht gebrochen würden, nach oben, nach links oder schräg nach oben zu der linken Seite um einen Abstand gleich zu der Länge/Breite von 1 Lichtempfangselement entsprechend zu Änderungen in dem Kippwinkel und der Kipprichtung der flachen Platte 5 in Bezug auf die optische Achse O bewegt werden, wie dies in den 3B bis 3E dargestellt ist. In den 3B bis 3E sind entsprechende Bezugszeichen an Abtastpunkte angefügt, die Lichtstrahlen auf die Projektionspunkte SA1 bis SA4, SB1 bis SB4, SC1 bis SC4 und SD1 bis SD4 projizieren würden, wenn Lichtstrahlen von Abtastpunkten nicht gebrochen werden würden. Demzufolge würden die Lichtstrahlen, die die Lichtprojektionspositionen SA1, SA2, SA3 und SA4 erreichen würden, wenn sie nicht gebrochen werden würden, durch die Blende 11A, die in 3A dargestellt ist, zum Beispiel hindurchführen und würden durch eines der Lichtempfangselemente erfasst werden, das hinter der Blende angeordnet ist.

Pixeldaten A1, A2, A3 und A4, dargestellt in den 7A bis 7E und den 8A bis 8E, stellen, in einer Korrespondenz eins zu eins, die vier Lichtstrahlen dar, die von Abtastpunkten reflektiert sind und die die Projektionspositionen SA1, SA2, SA3 und SA4 erreichen würden, wenn sie nicht gebrochen werden würden.

Pixeldaten B1 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen ist, eine Lichtprojektionsposition SB1 erreichen würde, der diagonal oberhalb der oberen linksseitigen Ecke der Blende 11B angeordnet ist. Pixeldaten B2 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die diagonal oberhalb der oberen, rechtsseitigen Ecke der Blende 11B angeordnet ist. Pixeldaten B3 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die schräg unterhalb der unteren, rechtsseitigen Ecke der Blende 11B angeordnet ist. Pixeldaten B4 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die schräg unterhalb der unteren, linksseitigen Ecke der Blende 11B angeordnet ist.

Pixeldaten C1 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen ist, eine Lichtprojektionsposition SC1 erreichen würde, die diagonal oberhalb der oberen, linksseitigen Ecke der Blende 11C angeordnet ist. Pixeldaten C2 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die diagonal oberhalb der oberen, linksseitigen Ecke der Blende 11C angeordnet ist. Pixeldaten C3 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die schräg unterhalb der unteren, rechtsseitigen Ecke der Blende 11C angeordnet ist. Pixeldaten C4 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die schräg unterhalb der unteren, linksseitigen Ecke der Blende 11C angeordnet ist.

Pixeldaten D1 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen ist, eine Lichtprojektionsposition SD1 erreichen würde, die diagonal oberhalb der linksseitigen Ecke der Blende 11D angeordnet ist. Pixeldaten D2 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die diagonal oberhalb der oberen, rechtsseitigen Ecke der Blende 11D angeordnet ist. Pixeldaten D3 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die schräg unterhalb der unteren, rechtsseitigen Ecke der Blende 11D angeordnet ist. Pixeldaten D4 stellen einen Lichtstrahl dar, der, wenn er nicht gebrochen wird, eine Lichtprojektionsposition erreichen würde, die schräg unterhalb der unteren, linksseitigen Ecke der Blende 11D angeordnet ist.

Der Lichtempfangsabschnitt 2 besitzt eine große Anzahl von Gruppen, die jeweils aus einem Satz 10 aus Lichtempfangselementen, einer schwarzen Maske 11 und einem Farbfilter 12 besteht. Der Satz 10 aus Lichtempfangselementen ist aus vier Lichtempfangselementen 10A bis 10D gebildet. Die Lichtempfangselemente 10A bis 10D sind, wie in 4 dargestellt ist, in einem 2×2 Matrix-Muster angeordnet. Die schwarze Maske 11 ist auf der Lichteinfallseite des Satzes 10 aus Lichtempfangselementen angeordnet. Die schwarze Maske 11 ist mit Blenden A bis D versehen. Das Licht, das durch die Blenden A bis D senkrecht dazu hindurchfährt, tritt in die Lichtempfangselemente 10A bis 10D ein. Der Farbfilter 12 ist auf der Lichteinfallseite der schwarzen Maske 11 angeordnet. Der Farbfilter 12 besitzt Farbfilterabschnitte 12A bis 12D für unterschiedlichen Farben. Das Licht, das durch die Filterabschnitte 12A bis 12D senkrecht dazu hindurchfährt, tritt in die Lichtempfangselemente 10A bis 10D ein.

Der Bereich der Blenden A bis D ist ungefähr 1/4 desjenigen der Lichtempfangselemente 10A bis 10D. Demzufolge ist, wenn die Abtastpunkte N-mal (z.B. viermal) auf den Lichtempfangselementen 10A bis 10D bewegt werden, das Blenden-Verhältnis Q der Blenden A bis D gegeben als: Q = (1/N) × 100% = (1/4) × 100% = 25%

Damit die Intervalle zwischen den Blenden A bis D ein Maximum werden, sind die Blenden A bis D auf der Lichteinfallseite der Lichtempfangselemente 10A bis 10D so angeordnet, dass sie vor den Eckabschnitten der Lichtempfangselemente 10A bis 10D, nicht vor den zentralen Abschnitten der Lichtempfangselemente 10A bis 10D, angeordnet sind. Zum Beispiel ist, wie in 7A dargestellt ist, die Blende A vor dem oberen, linksseitigen Eckenabschnitt des Lichtempfangselements 10A angeordnet. Die Blende B ist vor dem oberen, rechtsseitigen Eckenabschnitt des Lichtempfangselements 10B angeordnet. Die Blende C ist vor dem unteren, linksseitigen Eckenabschnitt des Lichtempfangselements 10C angeordnet. Die Blende D ist vor dem unteren, rechtsseitigen Eckenabschnitt des Lichtempfangselements 10D angeordnet. Dementsprechend sind die Blenden A und D seitlich voneinander mit einer 1,5 Elementen-Teilung getrennt und die Blende A, die in einer anderen Gruppe enthalten ist, ist angrenzend an die rechtsseitige Seite der Blende B angeordnet. Die Blenden C und D sind seitlich voneinander mit einer 1,5 Elementen-Teilung getrennt und die Blende C, die in einer anderen Gruppe enthalten ist, ist angrenzend an der rechten Seite der Blende D und auf dieser angeordnet. Die Blenden A und C sind vertikal voneinander um eine 1,5 Elementen-Teilung getrennt und die Blende D, die in einer anderen Gruppe enthalten ist, ist angrenzend an die Blende C und unterhalb dieser angeordnet. Die Blenden B und D sind vertikal voneinander mit einer 1,5 Elementen-Teilung getrennt und die Blende C, die in einer anderen Gruppe enthalten ist, ist angrenzend zu der Blende D und unterhalb dieser angeordnet.

Die Bildaufnahmevorrichtung umfasst, wie in 5 dargestellt ist, eine CPU (Central Processing Unit) 15. Wenn eine Auslösetaste niedergedrückt ist, wird ein Verschluss-Signal zu der CPU 15 zugeführt. Die CPU 15 steuert, unter Empfang des Verschluss-Signals, die gesamte Schaltung so, dass die Fotografie einmal vorgenommen wird. Wenn eine Fotografie vorgenommen wird, wird eine Belichtung erfolgreich viermal durchgeführt. Genauer gesagt gibt, wenn das Verschluss-Signal zu der CPU 15 zugeführt wird, die CPU 15 ein Antriebssignal zu dem Positionsänderungsmechanismus 4 zu jedem Zeitpunkt, zu dem die Belichtung durchgeführt wird, aus, wie dies in 6 dargestellt ist. Auf das Antriebssignal hin werden die piezoelektrischen Elemente 8 des Positionsänderungsmechanismus 4 angesteuert und kippen die flache Platte 5 in Bezug auf die optische Achse O in einer vorbestimmten Richtung. Folglich werden die Positionen, in denen die Lichtstrahlen, die die Abtastpunkte SA bis SD darstellen, projiziert werden, aufeinander folgend bestimmt und die Lichtstrahlen, die die vier Abtastpunkte SA bis SD darstellen, die sich aneinander grenzend zu einander befinden, werden aufeinanderfolgend auf jedes der Lichtempfangselemente 10A bis 10D projiziert.

In jeder der Perioden, während denen die Positionen, in denen die Lichtstrahlen, die die Abtastpunkte SA bis SD darstellen, projiziert werden, bezeichnet werden, führt die CPU 15ein Fotosignal zu dem Lichtempfangsabschnitt 2 so zu, dass die Belichtung vorgenommen wird. In jeder der Perioden, während denen die Positionen, in denen die Lichtstrahlen, die die Abtastpunkte SA bis SD darstellen, projiziert werden, geändert werden, führt die CPU 15 ein Übertragungssignal zu dem Lichtempfangsabschnitt 2 zu, und es wird keine Belichtung durchgeführt. Die Erfassungssignale (Ausgangssignale), die durch die Lichtempfangselemente 10A bis 10D erzeugt sind, werden in Folge zu einem RAM 16 als Pixeldaten zugeführt und werden darin gespeichert. Pixeldaten, die in dem RAM 16 gespeichert sind, werden als vier Bilddatenelemente (Bildsignale), wobei eines pro Belichtung erzeugt ist, ausgelesen. Die Bilddatenelemente werden der Interpolation unterworfen, wodurch sie zu einem Bilddatenelement (End-Pixel-Anordnungsdaten) kombiniert werden. Die End-Pixel-Anordnungsdaten werden in einem Flash-Speicher 17 gespeichert.

In der vorstehend beschriebenen Bildaufnahmevorrichtung erfasst jedes Lichtempfangselement 10A bis 10D, das in jeder Gruppe enthalten ist, Lichtstrahlen, die Abtastpunkte darstellen. Die Pixeldaten, die als ein Ergebnis der Erfassung erhalten sind, werden der Interpolation unterworfen, wodurch die End-Pixel-Anordnungsdaten erzeugt werden.

Die 7A bis 7E stellen das Interpolationsverfahren dar.

Zu dem Zeitpunkt der ersten Belichtung führen, wie in 7A dargestellt ist, Lichtstrahlen, die von irgendwelchen Abtastpunkten reflektiert sind und die die Lichtprojektionspositionen SA1, SB1, SC1 und SD1 erreichen würden, wenn sie nicht gebrochen werden würden, jeweils durch Blenden 11A bis 11D hindurch, wie dies in 3 dargestellt ist. Die Lichtempfangselemente 10A bis 10D, die hinter den Blenden 11A bis 11D jeweils angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen jeweils die Pixeldaten A1, B1, C1 und D1.

Zu dem Zeitpunkt der zweiten Belichtung führen Lichtstrahlen, wie in 7B dargestellt ist, die von irgendwelchen Abtastpunkten reflektiert sind, und die, wenn sie nicht reflektiert sind, die Lichtprojektionspositionen erreichen würden, die diagonal oberhalb der oberen, rechtsseitigen Ecken der Blenden 11A bis 11D angeordnet sind, durch die Blenden 11A bis 11D hindurch, wie dies in 3 dargestellt ist. Die Lichtempfangselemente 10A bis 10D, die hinter den Blenden 11A bis 11D angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen Pixeldaten A2, B2, C2 und D2.

Zum Zeitpunkt der dritten Belichtung führen Lichtstrahlen, wie in 7C dargestellt ist, die von irgendwelchen Abtastpunkten reflektiert sind, und die, wenn sie nicht gebrochen sind, die Lichtprojektionspositionen erreichen würden, die diagonal unterhalb der unteren, rechtsseitigen Ecken der Blenden 11A bis 11D angeordnet sind, durch die Blenden 11A bis 11D hindurch, wie dies in 3 dargestellt ist. Die Lichtempfangselemente 10A bis 10D, die hinter den Blenden 11A bis 11D angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen Pixeldaten A3, B3, C3 und D3.

Zum Zeitpunkt der vierten Belichtung führen Lichtstrahlen, wie in 7D dargestellt ist, die von irgendwelchen Abtastpunkten reflektiert sind, und die, wenn sie nicht gebrochen sind, die Lichtprojektionspositionen erreichen würden, die diagonal unterhalb der unteren, linksseitigen Ecken der Blenden 11A bis 11D angeordnet sind, durch die Blenden 11A bis 11D hindurch, wie dies in 3 dargestellt ist. Die Lichtempfangselemente 10A bis 10D, die hinter den Blenden 11A bis 11D angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen die Pixeldaten A4, B4, C4 und D4.

Von den End-Pixel-Anordnungsdaten, die so erhalten sind, befinden sich die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, nicht aneinandergrenzend zueinander in der vertikalen oder der seitlichen Richtung, wie dies in 7E dargestellt ist. Die Pixeldaten, die das Licht darstellen, das durch die Blenden A bis D hindurchgeführt ist, sind, als eine Folge der Interpolation, in derselben Reihenfolge wie die Lichtempfangselemente 10A bis 10D angeordnet. Die Pixeldaten sind unter einer 0,5 Element-Teilung angeordnet. Das Luminanz-Signal Y und die Farbe-Differenzsignale R-Y und B-Y werden durch Verarbeitung der End-Pixel-Anordnungsdaten, die so angeordnet sind, erhalten. Die Signale Y, R-Y und B-Y werden als die End-Pixel-Anordnungsdaten reproduziert, die die Pixel-Anordnung haben, die in 7E dargestellt ist.

Die Lichtstrahlen werden, entsprechend der vorstehend angegebenen Bildaufnahmevorrichtung, wie sie zuvor erwähnt ist, die von dem Objekt ankommen, das fotografiert werden soll, und die Abtastpunkte SA, SB, SC und SD darstellt, aufeinander folgend durch ein Lichtempfangselement erfasst und eine Vielzahl von Bildsignalen wird erzeugt. Der Lichtempfangsabschnitt 2 besitzt eine Vielzahl von Gruppen, wobei jede davon aus vier Lichtempfangselementen 10A bis 10D, die einen Satz bilden, und Blenden A bis D, die vor den Eckenabschnitten der Lichtempfangselemente 10A bis 10D angeordnet sind, besteht. Es ist ersichtlich, dass die Blenden A bis D um 1 Element nach rechts bewegt werden und dann um 1 Element-Teilung nach unten bewegt werden und weiter um 1 Element-Teilung nach links bewegt werden. Hierdurch wird die Auflösung verbessert, ohne die Integrationsdichte ändern zu müssen. Weiterhin befinden sich, in den End-Pixel-Anordnungsdaten, wie dies in 7E dargestellt ist, die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, nicht aneinandergrenzend zueinander in der vertikalen oder seitlichen Richtung. Im Gegensatz zu dem herkömmlichen Fall bilden die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, keine Gruppe. Demzufolge tritt es nicht auf, dass eine Gruppe solcher Pixeldaten im Wesentlichen 1 Pixel in der End-Pixel-Anordnung, die durch die Interpolation erhalten ist, darstellt. Kurz gesagt ist die End-Pixel-Anordnung feiner als diejenige des herkömmlichen Falls. Dementsprechend ist die Daten-Präzision des Luminanz-Signals und der Farb-Differenz-Signale hoch.

Insbesondere sind, entsprechend der vorstehenden Bildaufnahmevorrichtung, die Blenden A bis D vor den Eckenabschnitten der Lichtempfangselemente 10A bis 10D so angeordnet, dass die Intervalle zwischen den Blenden A bis D maximal sind. Durch die Durchführung einer einfachen Interpolations-Verarbeitung, durch die die Blenden 11A bis 11D eine Anzahl von Malen über eine 1-Element-Teilung pro Bewegung bewegt werden, werden die End-Pixel-Anordnungsdaten erhalten. Die Anordnung der Pixeldaten in den End-Pixel-Anordnungsdaten ist dieselbe wie diejenige der Blenden 11A bis 11D. Dies ermöglicht, dass ein Signalverarbeitungs-Algorithmus gemeinsam geteilt wird. Weiterhin sind die horizontale und die vertikale Auflösung zweimal so hoch wie solche in dem Fall, bei dem die Interpolations-Verarbeitung nicht durchgeführt wird. Unter den vorstehend beschriebenen Bedingungen wird die Funktionsweise der Bildaufnahmevorrichtung wesentlich verbessert.

Zweite Ausführungsform

Eine Bildaufnahmevorrichtung entsprechend der zweiten Ausführungsform der vorliegenden Erfindung wird nun unter Bezugnahme auf die 8A bis 8E beschrieben. Teile ähnlich zu solchen der ersten Ausführungsform, die in den 2 bis 7 dargestellt sind, werden durch deren entsprechende Bezugszeichen, die in den 2 bis 7 verwendet sind, bezeichnet und Erläuterungen davon werden nicht vorgenommen.

Diese Bildaufnahmevorrichtung ist dieselbe wie diejenige der ersten Ausführungsform in anderen Punkten als die positionsmäßige Beziehung zwischen jedem der Lichtempfangselemente 10A bis 10D und deren entsprechenden Einen der vier Blenden und die Art und Weise einer Durchführung der Interpolation. Die Blenden sind alternierend vor unterschiedlichen Eckenabschnitten der Lichtempfangselemente 10A bis 10D angeordnet.

Genauer gesagt ist die erste Blende vor dem oberen, linksseitigen Eckenabschnitt des Lichtempfangselements 10A angeordnet. Die zweite Blende ist vor dem unteren, linksseitigen Eckenabschnitt des Lichtempfangselements 10B angeordnet. Die dritte Blende ist vor dem oberen, rechtsseitigen Eckenabschnitt des Lichtempfangselements 10C angeordnet. Die Blende D ist vor dem unteren, rechtsseitigen Eckenabschnitt des Lichtempfangselements 10D angeordnet. Dementsprechend sind die erste und die zweite Blende um 1 Element-Teilung seitlich und unter einer 0,5 Element-Teilung vertikal voneinander getrennt, da sie die dritte und die vierte Blende sind. Die erste und die dritte Blende sind um eine 0,5 Element-Teilung seitlich und unter einer 1 Element-Teilung vertikal voneinander getrennt, da sie die zweite und die vierte Blende sind. Das Blenden-Verhältnis Q jeder der Blenden A bis D beträgt 25% (= (1/N) × 100%), entsprechend wie in dem Fall der ersten Ausführungsform.

Die Pixeldaten, die durch die Lichtempfangselemente 10A bis 10D, die so angeordnet sind, erfasst sind, werden auch der Interpolation unterworfen, um dadurch die End-Pixel-Anordnungsdaten zu erzeugen.

Die 8A bis 8E stellen das Interpolations-Verfahren entsprechend dieser Ausführungsform dar. Das Interpolations-Verfahren dieser Ausführungsform ist dasselbe wie dasjenige der ersten Ausführungsform, die in den 7A bis 7E dargestellt ist.

Zu dem Zeitpunkt der ersten Belichtung führen, wie in 8A dargestellt ist, Lichtstrahlen, die von irgendwelchen Abtastpunkten reflektiert sind und die die Lichtprojektionspositionen SA1, SB1, SC1 und SD1 erreichen würden, wenn sie nicht gebrochen werden würden, jeweils durch die erste bis vierte Blende hindurch. Die Lichtempfangselemente 10A bis 10D, die hinter der ersten bis vierten Blende jeweils angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen jeweils die Pixeldaten A1, B1, C1 und D1.

Zu dem Zeitpunkt der zweiten Belichtung führen, wie in 8B dargestellt ist, Lichtstrahlen, die von irgendwelchen Abtastpunkten reflektiert sind, und die, wenn sie nicht gebrochen werden würden, die Lichtprojektionspositionen erreichen würden, die diagonal oberhalb der oberen, rechtsseitigen Ecken der ersten bis vierten Blende angeordnet sind, durch die erste bis vierte Blende hindurch. Die Lichtempfangselemente 10A bis 10D, die hinter der ersten bis vierten Blende angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen die Pixeldaten A2, B2, C2 und D2.

Zum Zeitpunkt der dritten Belichtung führen Lichtstrahlen, wie in 8C dargestellt ist, die von irgendwelchen Abtastpunkten reflektiert sind, und die, wenn sie nicht gebrochen werden würden, die Lichtprojektionspositionen, die diagonal unterhalb der unteren, rechtsseitigen Ecken der ersten bis vierten Blende 10A bis 10D angeordnet sind, erreichen würden, durch die erste bis vierte Blende hindurch. Die Lichtempfangselemente 10A bis 10D, die hinter der ersten bis vierten Blende angeordnet sind, empfangen diese Lichtstrahlen und erzeugen Pixeldaten A3, B3, C3 und D3.

Zum Zeitpunkt der vierten Belichtung führen Lichtstrahlen, wie in 8D dargestellt ist, die von irgendwelchen Abtastpunkten reflektiert sind, und die, wenn sie nicht gebrochen werden würden, die Lichtprojektionspositionen, die diagonal unterhalb der unteren, linksseitigen Ecken der ersten bis vierten Blende angeordnet sind, erreichen würden, durch die erste bis vierte Blende hindurch. Die Lichtempfangselemente 10A bis 10D, die hinter der ersten bis vierten Blende angeordnet sind, nehmen diese Lichtstrahlen auf und erzeugen die Pixeldaten A4, B4, C4 und D4.

Von den End-Pixel-Anordnungsdaten, die so erhalten sind, befinden sich die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, nicht aneinandergrenzend zueinander in der vertikalen oder seitlichen Richtung, wie dies in 8E dargestellt ist. Bei der Interpolation sind die Pixeldaten, die das Licht darstellen, das durch die Blenden A bis D hindurchgeführt ist, unter einer 0,5 Element-Teilung und in derselben Reihenfolge wie die Lichtempfangselemente 10A bis 10D angeordnet. Das Luminanz-Signal Y und die Farb-Differenz-Signale R-Y und B-Y werden, durch Verarbeitung der End-Pixel-Anordnungsdaten, die so angeordnet sind, erhalten, und zwar wie in dem Fall der ersten Ausführungsform. Die Signale Y, R-Y und B-Y werden als die End-Pixel-Anordnungsdaten reproduziert, die die Pixel-Anordnung haben, die in 8E dargestellt ist.

Demzufolge werden, entsprechend der vorstehenden Lichtempfangsvorrichtung, Lichtstrahlen, die von dem Objekt, das fotografiert werden soll, reflektiert sind und vier Abtastpunkte darstellen, aufeinander folgend durch jedes Lichtempfangselement erfasst, und eine Vielzahl von Bildsignalen wird erzeugt. Der Lichtempfangsabschnitt 2 besitzt eine Vielzahl von Gruppen, wobei jede davon aus vier Lichtempfangselementen 10A bis 10D und Blenden A bis D, die vor unterschiedlichen Eckenabschnitten der Lichtempfangselemente 10A bis 10D angeordnet sind, besteht.

Es ist ersichtlich, dass die Blenden A bis D um 1 Element-Teilung nach rechts bewegt werden und dann um 1 Element-Teilung nach unten bewegt werden und weiter um 1 Element-Teilung nach links bewegt werden. Hierdurch wird die Auflösung verbessert, ohne dass die Integrationsdichte geändert werden muss. Weiterhin befinden sich, in den End-Pixel-Anordnungsdaten, wie dies in 8E dargestellt ist, die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, nicht aneinandergrenzend zueinander in der vertikalen oder seitlichen Richtung. Wie in dem Fall der ersten Ausführungsform bilden die Pixeldaten, die das Licht darstellen, das durch dieselbe Blende hindurchgeführt ist, keine Gruppe. Demzufolge tritt es nicht auf, dass eine Gruppe solcher Pixeldaten im Wesentlichen ein Pixel in der End-Pixel-Anordnung, die durch Interpolation erhalten ist, darstellt (kurz gesagt ist die End-Pixel-Anordnung feiner als diejenige des herkömmlichen Falls). Dementsprechend ist die Daten-Präzision des Luminanz-Signals und der Farb-Differenz-Signale hoch.

Die Blenden sind insbesondere, entsprechend der vorstehenden Bildaufnahmevorrichtung, alternierend vor den Eckenabschnitten der Lichtempfangselemente 10A bis 10D angeordnet, wie dies in 8A dargestellt ist. Die Anordnung der Blenden ist dieselbe wie diejenige der Pixeldaten A1, B1, C1 und D1, wie dies in 8A dargestellt ist. Unter Durchführung der einfachen Interpolations-Verarbeitung, mit der die Blenden in ersichtlicher Weise eine Anzahl von Malen über eine 1 Element-Teilung pro Bewegung bewegt werden, sind die Pixeldaten, die das Licht darstellen, das durch unterschiedliche Blenden hindurchgeführt ist, aneinandergrenzend zueinander angeordnet. Die Anordnung der Pixeldaten in den End-Pixel-Anordnungsdaten ist dieselbe wie diejenige der Blenden. In diesem Fall sind die horizontale und die vertikale Auflösung zweimal so hoch wie solche in dem Fall, bei dem die Interpolations-Verarbeitung nicht durchgeführt wird. Unter den vorstehend beschriebenen Bedingungen wird die Funktionsweise der Bildaufnahmevorrichtung wesentlich verbessert.

In der ersten und der zweiten Ausführungsform wird die transparente, flache Platte 5, deren Hauptflächen parallel zueinander liegen, als die Positionsänderungseinrichtung zum ändern der Positionen, in denen die Abtastpunkte des Bilds des Objekts, das fotografiert werden soll, projiziert sind, eingesetzt. Die flache Platte 5 wird dreidimensional durch die piezoelektrischen Elemente 8 in Bezug auf die optische Achse O gekippt. Allerdings sind die Einrichtungen, um die Positionen zu ändern, in denen dieselben Punkte projiziert werden, nicht hierauf beschränkt. Zum Beispiel kann die transparente, flache Platte um die optische Achse O in dem Zustand gedreht werden, indem sie unter einem vorgegebenen Winkel in Bezug auf die optische Achse O gekippt wird. Das Lichtempfangssubstrat 1 des Lichtempfangsabschnitts 2 kann seitlich oder vertikal bewegt werden.

Weiterhin führt, entsprechend der ersten und zweiten Ausführungsform, Licht unterschiedlicher Farben durch vier Filterabschnitte 12A bis 12D hindurch. Allerdings ist das Licht, das dort hindurchfährt, nicht notwendigerweise Licht unterschiedlicher Farben. Zum Beispiel können die Filterabschnitte 12A bis 12D zulassen, dass rotes Licht, grünes Licht und blaues Licht dort hindurchfährt. Weiterhin können die Bildaufnahmevorrichtungen entsprechend der vorliegenden Erfindung in weitem Umfang als Bildaufnahmeeinheiten angewandt werden, wie beispielsweise Videokameras und Überwachungskameras, um Bewegungsbilder aufzunehmen. Weiterhin wird, in der ersten und der zweiten Ausführungsform, eine CCD als ein Bildaufnahmeelement verwendet. Allerdings kann ein CMOS, oder dergleichen, auch als das Bildaufnahmeelement verwendet werden.


Anspruch[de]
Bildaufnahmevorrichtung, die umfasst:

einen Lichtempfangsabschnitt (2) mit einer Vielzahl von Gruppen von Lichtempfangselementen (10A10D), die darin angeordnet sind, wobei die Gruppen jeweils aus einer Vielzahl von Lichtempfangselementen (10A10D) zusammengesetzt sind;

eine Verschiebeeinrichtung (4) zum Ändern einer Positionsbeziehung zwischen jedem der Lichtempfangselemente (10A10D) und Licht, das von einem aufzunehmenden Objekt empfangen wird, wobei eine Belichtung des Lichtempfangsabschnitts (2) mit Licht mehrmals durchgeführt wird und die Verschiebeeinrichtung (4) die Positionsbeziehung jedes Mal ändert, wenn die Belichtung durchgeführt wird;

eine Speichereinrichtung (16) zum Empfangen von Ausgangssignalen, die die Lichtstrahlen darstellen, die in das Lichtempfangselement (10A10D) bei der mehrmaligen Belichtung eingetreten sind, und zum Speichern der Ausgangssignale in Verbindung mit Zeiten der Belichtung; und

eine Steuereinrichtung (15) zum Erzeugen von Bilddaten aus in der Speichereinrichtung (16) gespeicherten Signalen,

dadurch gekennzeichnet, dass

die Vielzahl von Lichtempfangelementen (10A10D) des Lichtempfangsabschnitts (2) jeweils Blenden (11A11D) haben, die so angeordnet sind, dass sich die Position jeder der Blenden (11A11D) von der der Blenden (11A11D) anderer Lichtempfangselemente (10A10D) der gleichen Gruppe unterscheidet, wobei die Gruppen jeweils durch die Vielzahl von Lichtempfangselementen (10A10D) gebildet werden, und die des Weiteren ein Farbfilter (12) mit Filterabschnitten (12A12D) einer Vielzahl von Arten von Farben für jedes Lichtempfangselemente (10A10D) der gleichen Gruppe haben, und die Steuereinrichtung (15) die Bilddaten erzeugt, indem sie die Ausgangssignale, die nach jeder Änderung der Positionsbeziehung durch die Verschiebeeinrichtung ausgegeben werden, so anordnet, dass diejenigen der Ausgangssignale, die von dem gleichen Lichtempfangselement empfangen worden sind, nicht aneinandergrenzen, und eine geschlossene Anordnung bildet.
Bildaufnahmevorrichtung nach Anspruch 1, wobei die Steuereinrichtung (15) die Bilddaten erzeugt, indem sie die Ausgangssignale so anordnet, dass diejenigen der Ausgangssignale die von dem gleichen Lichtempfangselement empfangen worden sind, nicht aneinandergrenzen. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Lichtempfangselemente (10A10D) Intensitäten unterschiedlicher Farben von Licht als die Pixel-Daten erfassen, die Verschiebeeinrichtung bewirkt, dass die Lichtstrahlen sequenziell zu verschiedenen Zeiten in die Blenden (11A11D) eintreten, die Pixel-Daten, die Intensitäten von Lichtstrahlen darstellen, die zu der gleichen Zeit durch die Blenden (11A11D) in die Lichtempfangselemente (10A10D) eintreten und von den Lichtempfangselementen (10A10D) erfasst werden, miteinander verknüpft in der Speichereinrichtung (16) gespeichert werden, und die Steuereinrichtung (15) die Pixel-Daten, die Intensitäten verschiedener Farben von Licht darstellen, aneinandergrenzend anordnet. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Lichtempfangselemente (10A10D), die in jeder der Vielzahl von Gruppen enthalten sind, vier Lichtempfangselemente (10A10D) sind, die in einem Matrix-Muster angeordnet sind, und die Blenden (11A11D), die in jeder der Gruppen enthalten sind, vor Eckenabschnitten der Lichtempfangselemente (10A10D) so angeordnet sind, dass die Blenden (11A11D) voneinander getrennt sind. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Lichtempfangselemente (10A10D), die in jeder der Vielzahl von Gruppen enthalten sind, vier Lichtempfangselemente (10A10D) sind, die in einem Matrix-Muster angeordnet sind, und die Blenden (11A11D), die in jeder der Gruppen enthalten sind, abwechselnd vor verschiedenen Eckenabschnitten der Lichtempfangselemente (10A10D) angeordnet sind. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Abtastposition-Änderungseinrichtung (4) näher an einem zu fotografierenden Objekt angeordnet ist als der Lichtempfangsabschnitt (2) und bewirkt, dass ein Lichtstrahl, der in die Verschiebeeinrichtung entlang eines ersten Lichtweges eintritt, aus ihr austritt und in die Lichtempfangselemente (10A10D) entlang eines zweiten Lichtweges parallel zu dem ersten Lichtweg eintritt. Bildaufnahmevorrichtung nach Anspruch 6, wobei die Verschiebeeinrichtung eine im Wesentlichen transparente Platte (5) enthält und entsprechend Neigungswinkeln der Platte (5) den in die Platte (5) entlang des ersten Lichtweges eintretenden Lichtstrahl bricht, um so zu bewirken, dass der Lichtstrahl entlang des zweiten Lichtweges parallel zu dem ersten Lichtweg aus der Platte (5) austritt. Bildaufnahmevorrichtung nach Anspruch 3, wobei die Verschiebeeinrichtung eine Bewegungseinrichtung enthält, die den Lichtempfangsabschnitt (2) im Wesentlichen parallel zu einer Lichtempfangsfläche des Lichtempfangsabschnitts (2) bewegt. Bildaufnahmevorrichtung nach Anspruch 8, wobei die Bewegungseinrichtung dazu dient, den Lichtempfangsabschnitt (2) im Wesentlichen in zwei unterschiedlichen Richtungen und im Wesentlichen parallel zu der Lichtempfangsfläche des Lichtempfangsabschnitts (2) zu bewegen.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

  Patente PDF

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com