de gb
de gb

Objektive und Sensoren aufeinander abstimmen


Da die Pixelgrößen von CCD- und CMOS-Bildsensoren immer kleiner werden, müssen Systemintegratoren bei der Auswahl ihrer Optiken sorgfältig vorgehen.

Jedes Jahr fertigen Sensorhersteller Sensoren mit kleineren Pixelgrößen. Vor etwa 15 Jahren war es üblich, Sensoren mit Pixeln von nur 13 µm zu finden. Heute sind Sensoren mit standardmäßigen 5-µm-Pixelgrößen weit verbreitet. Kürzlich haben Sensorhersteller Pixelgrößen von 1,4 µm produziert, ohne die Leistungsgrenzen von Objektiven zu berücksichtigen. Es ist auch üblich, Sensoren mit 5 Megapixeln und einzelnen Pixelgrößen von 3,45 µm zu finden. In der nächsten Generation von Bildsensoren erwarten einige Hersteller, Geräte mit Pixelgrößen von nur 1,75 µm zu produzieren. Bei der Entwicklung dieser Bildsensoren haben die Sensorhersteller versäumt, mit den Objektivherstellern zu kommunizieren. Dies hat zu einer Diskrepanz zwischen der beworbenen Sensorauflösung und der Auflösung geführt, die mit einer Sensor/Objektiv-Kombination tatsächlich erreicht werden kann. Um dieses Problem zu lösen, müssen Objektivhersteller nun Objektive mit höherer optischer Leistung, niedrigeren Blendenzahlen (f/#s) und deutlich strengeren Fertigungstoleranzen produzieren, damit diese Objektive die Vorteile neuer Sensoren nutzen können.

 

Licht verstehen

Um zu verstehen, wie Objektive die Leistung eines Bildgebungssystems begrenzen können, ist es notwendig, die Physik hinter Faktoren wie Beugung, Objektivöffnung, Brennweite und Wellenlänge des Lichts zu verstehen. Einer der wichtigsten Parameter eines Objektivs ist seine Beugungsgrenze (DL). Selbst ein perfektes, nicht durch das Design begrenztes Objektiv wird beugungsbegrenzt sein, und dieser Wert, angegeben in Linienpaaren/mm, bestimmt das maximale Auflösungsvermögen des Objektivs. Zur Berechnung dieses Beugungsgrenzwertes kann eine einfache Formel verwendet werden, die die Blendenzahl (f/#) des Objektivs und die Wellenlänge des Lichts in Beziehung setzt.

DL = 1 / [(f/#) * (Wellenlänge in Millimetern)]

Nachdem die Beugungsgrenze erreicht ist, kann das Objektiv keine höheren Frequenzen mehr auflösen. Eine der Variablen, die die Beugungsgrenze beeinflussen, ist die Lichtstärke des Objektivs oder die Blendenzahl (f/#). Diese hängt direkt mit der Größe der Objektivöffnung und der Brennweite des Objektivs wie folgt zusammen:

f/# = Brennweite / Objektivöffnung

Das Beugungsmuster, das sich aus einer gleichmäßig beleuchteten kreisförmigen Apertur ergibt, weist einen hellen Bereich in der Mitte auf, der als Airy-Scheibchen bekannt ist und zusammen mit der Reihe konzentrischer heller Ringe um ihn herum als Airy-Muster bezeichnet wird. Der Durchmesser dieses Musters hängt von der Wellenlänge des beleuchtenden Lichts und der Größe der kreisförmigen Apertur ab.

Tabelle 1 – Objektivöffnung und Durchmesser des Airy-Scheibchens bei 632,8 nm

f/# Durchmesser des Airy-Scheibchens (μm)
f/1.0 1,54
f/1.4 2,16
f/2.0 3,09
f/2.8 4,32
f/4.0 6,18
f/5.6 8,65
f/8.0 12,35
f/11 16,98
f/16 24,70

Dies ist wichtig, da das Airy-Scheibchen der kleinste Punkt ist, auf den ein Lichtstrahl fokussiert werden kann. Die Scheibe besteht aus Lichtringen abnehmender Intensität und ähnelt den Ringen einer Zielscheibe. Der zentrale helle Punkt enthält etwa 84 % der gesamten Energie des Punktbildes, 91 % innerhalb des Außendurchmessers des ersten Rings und 94 % der Energie innerhalb des Außendurchmessers des zweiten Rings und so weiter (siehe Abb. 1a und 1b). Der Durchmesser des Airy-Scheibchens (ADD) kann berechnet werden durch:

ADD = (2,44) * (f/#) * (Wellenlänge)

Die Bildpunktgröße kann als der Durchmesser des Airy-Scheibchens betrachtet werden, das alle seine Ringe umfasst. Die Punktgröße, die ein Objektiv erzeugt, spielt eine immer wichtigere Rolle in der digitalen Bildgebung. Dies liegt daran, dass die individuelle Pixelgröße der neuesten Sensoren so weit reduziert wurde, dass sie mit der Größe des Airy-Scheibchens vergleichbar oder kleiner ist.

Es ist wichtig, den Durchmesser des Airy-Scheibchens bei einer bestimmten Blendenzahl (f/#) zu berücksichtigen, da der Durchmesser des Airy-Scheibchens erheblich größer sein kann als die individuelle Pixelgröße. Die Verwendung eines Objektivs, das auf f/8.0 eingestellt ist, wird durch eine individuelle Pixelgröße von <12,35 µm leistungsbegrenzt sein (siehe Tabelle 1). In der Tabelle sind alle Werte mit einer Wellenlänge von 632,8 nm angegeben.

 

Sensorauflösung

Während die Beugungsgrenze in Linienpaaren/mm das Auflösungsvermögen des Objektivs bestimmt, wird die Auflösungsgrenze des Bildsensors, gemeinhin als Nyquist-Frequenz (NF) bezeichnet, ebenfalls in Linienpaaren/mm ausgedrückt, wobei

NF = 1 / [(Pixelgröße) * (2)]

Tabelle 2 zeigt die Nyquist-Frequenzgrenzen für Pixelgrößen, die jetzt in Bildverarbeitungskameras verfügbar sind. Erforderlich ist ein Objektivsystem mit einer ziemlich niedrigen Blendenzahl (f/#), um die sensorbegrenzte Auflösung überhaupt theoretisch zu erreichen. Es ist üblich, dass solche Objektive mit Blendenzahlen (f/#s) kalibriert werden, die sich auf Unendlich beziehen.

Da ein Objekt in den meisten Bildverarbeitungssystemen in endlichem Abstand betrachtet wird, sind diese Blendenzahlen (f/#s) nicht mehr gültig. Ein neuer "endlicher" f/#-Wert (ff/#) muss berechnet und für alle Systemberechnungen wie Punktgröße und Auflösungsgrenzen verwendet werden. Eine einfache Möglichkeit zur Berechnung des "endlichen" f/# (ff/#) ist:

ff/# = (Unendlich f/#) * (Vergrößerung + 1)

Unter Verwendung der obigen Gleichung und unter Annahme einer optischen Einheitsvergrößerung von 1 ist der ff/# für das Objektiv doppelt so hoch wie der Unendlich-f/#-Wert. Daher kann man als Faustregel davon ausgehen, dass ein Objektiv mit einem angegebenen f/# von 1,4 einen f/# von 2,8 hat, wenn es in einem Bildverarbeitungssystem verwendet wird. Immer kleinere Pixelgrößen zwingen Objektive dazu, bei sehr niedrigen f/#s zu arbeiten, um die theoretischen Auflösungsgrenzen des Sensors zu erreichen.

Je niedriger die Blendenzahl (f/#) wird, desto schwieriger wird es, Objektive zu entwickeln und herzustellen, die der theoretischen Grenze nahekommen. Während einige Objektivdesigns den theoretischen Grenzen nahekommen können, wird es nahezu unmöglich, die Grenzen zu erreichen, wenn Fertigungstoleranzen, verschiedene Wellenlängenbereiche, Sensorausrichtung, Mikrolinsen, verschiedene Objektivanschlüsse und der Wunsch, diese Objektive über einen Bereich von Arbeitsabständen zu verwenden, berücksichtigt werden.

Tabelle 2 – Nyquist-Frequenzgrenzen für Pixelgrößen in Bildverarbeitungskameras

Pixelgröße (µm) Nyquist-Grenze (Lp/mm)
1,45 345
2,7 185
3,4 147
4,6 109
5 100
6,4 78
7 71
10 50
13 38

 

Linsendesign

Beim Design von Objektiven berücksichtigen Optikingenieure viele verschiedene Faktoren, um die gewünschte Auflösung zu erzielen. Bei jedem Objektivdesign, ob für eine Webkamera oder für ein hochauflösendes Bildgebungssystem, variiert die Objektivleistung mit dem Arbeitsabstand, dem ff/# oder dem Wellenlängenbereich.

Jedes Objektiv hat einen "Sweet Spot", an dem die beste Leistung erzielt wird. Wenn Faktoren wie der Arbeitsabstand variiert werden, kommt es zu einem Leistungsabfall des Systems. Je höher die Auflösung des Systems ist, desto schneller geschieht dies.

Im Fall des 5-Megapixel-Sensors von Sony mit 3,45-µm-Pixeln kann die sensorbegrenzte Auflösung selbst theoretisch weder bei sehr kurzen noch bei längeren Arbeitsabständen mit demselben Objektiv wirklich erreicht werden. Daher ist es entscheidend, mit Objektivherstellern zu besprechen, wie der Arbeitsabstand für eine bestimmte Anwendung sein wird, und zu verstehen, wie das Objektiv in diesem Abstand funktioniert.

Nicht jedes Objektivprodukt kann verwendet werden, um solche Systeme effektiv zu betreiben. Denken Sie daran: Ein Objektiv ist nicht garantiert, in einer 5-Megapixel-Kamera zu funktionieren, nur weil es als 5-Megapixel-Objektiv spezifiziert ist. In der Vergangenheit wurden in der Bildverarbeitung Objektive verwendet, die für Mikroskopie, Fotografie und Sicherheitsanwendungen entwickelt wurden. Obwohl diese Objektive sehr gut sein können, maximieren sie nicht die Fähigkeiten der in der Bildverarbeitung verwendeten Bildsensoren. Darüber hinaus erfordert der hohe Preisdruck in diesen Märkten gelockerte Fertigungstoleranzen, und solche Objektive können die Merkmale der speziell für die Bildverarbeitung entwickelten Objektive weglassen.

Abbildung einer Airy-Scheibe und ihrer 3D-Darstellung als Punktbild mit Beugungsringen

Abb. 1 — Das Airy-Scheibchen ist der kleinste Punkt, auf den ein Lichtstrahl fokussiert werden kann (oben). Der zentrale helle Punkt enthält etwa 84 % der gesamten Energie des Punktbildes, 91 % innerhalb des Außendurchmessers des ersten Rings und 94 % der Energie innerhalb des Außendurchmessers des zweiten Rings. Die 3D-Lichtintensität des Airy-Scheibchens zeigt, wie das Licht verteilt ist (unten).

Engere Toleranzen

Je enger die Toleranzen des Herstellungsprozesses sind, desto besser erreicht das Objektiv die Parameter eines idealen Designs. Engere Fertigungstoleranzen führen auch zu einem reproduzierbareren Objektiv – wichtig bei der Installation mehrerer Systeme – und einer besseren Bildqualität über den gesamten Sensor. Da die Bildqualität im Allgemeinen zuerst in den Ecken des Bildes abfällt, verstärkt eine Lockerung der Toleranzen diese Effekte nur und beschleunigt sie in vielen Fällen.

Systementwickler benötigen keine Kenntnisse in optischer Mechanik, um festzustellen, ob die Objektivtoleranzen eng genug sind. Es sollte jedoch festgestellt werden, ob die Designinformationen für das ideale/nominale Design oder für das tolerierte Design gelten. Da viele Objektive unter Verwendung von tolerierten Designinformationen spezifiziert werden, muss der Objektivlieferant möglicherweise Testbilder für eine bestimmte Anwendungsanforderung bereitstellen.

Je höher die Auflösung des Systems, desto niedriger muss die Blendenzahl (f/#) sein, um ausreichend kleine Punkte aufzulösen, die der Auflösung der Kamera entsprechen. Je niedriger die Blendenzahl (f/#) des Objektivs ist, desto größer ist der Lichtkegel für einen bestimmten Arbeitsabstand des Objektivs, und desto schneller divergieren die Strahlen vor und nach dem besten Fokus. Wenn die Ausrichtung des Objektivs zum Sensor nicht eng genug ist, liefert selbst ein Objektiv, das bestimmte Auflösungsanforderungen erfüllt, möglicherweise kein System, das die Spezifikationen erfüllt.

Abbildung 2 zeigt einen Sensor (rot), der in Bezug auf das Objektivsystem gekippt ist, wobei die gestrichelten Linien einzelne Pixel darstellen. Die durchgezogene rote Linie (rechts) zeigt den Punkt an, an dem die Defokussierung der vom Objektiv erzeugten Lichtkegel größer wird als die Pixel, wodurch außerhalb dieser Punkte unscharfe Bilder entstehen. Wenn genügend Pixel hinzugefügt werden und die Ausrichtung nicht perfekt ist, wird das System unscharf.

Die beste Möglichkeit, die mit diesem Problem verbundenen Risiken zu verringern, besteht darin, einen Kamerahersteller zu fragen, wie er die Ausrichtung seines Sensors in Bezug auf die Objektivfassung der Kamera garantiert. Höhere Ausrichtungsgrade erhöhen zwar die Kosten, aber die Leistung wird maximiert. Bei hohen Pixeldichten in Zeilenkameras und 11-Megapixel- und 16-Megapixel-Kameras können Ausrichtungswerkzeuge in das Objektiv oder die Kamera integriert werden.

 

Erhöhung des Füllfaktors

Mikrolinsen erhöhen den Füllfaktor des Sensors, indem sie so viel Licht wie möglich erfassen. Wie alle Objektive haben sie jedoch einen Akzeptanzwinkel, innerhalb dessen sie das Licht noch effektiv sammeln und auf den aktiven Teil des Pixels fokussieren (siehe Abb. 3). Wenn das externe Objektiv, das zur Bilderzeugung auf Sensoren mit Mikrolinsen verwendet wird, diesen Winkel überschreitet, erreicht das Licht den Sensor nicht (siehe Abb. 4).

Wenn Sensoren größer und größer werden, ändern sich die Akzeptanzwinkel dieser Mikrolinsen nicht. Der Winkel des Lichts vom Zentrum des externen Objektivs zu den immer weiter vom Zentrum des Sensors entfernten Pixeln ändert sich jedoch, wie durch die grünen und roten Strahlengänge in Abb. 4 zu sehen ist.

Mit zunehmender Sensorauflösung muss das Licht die einzelnen Mikrolinsen auf dem Sensor immer noch in Winkeln von nur 7° erreichen, damit keine Abschattung oder kein Abfall auftritt. Um dies zu überwinden, werden Objektivhersteller wie Schneider Optics externe Objektive anbieten, die im Bildraum nahezu telezentrisch sind. Bei solchen Designs bleibt der Winkel des Lichts, das immer weiter vom Zentrum entfernt ist, achsparallel, und es tritt kein winkelbedingter Abfall auf (siehe Abb. 5).

Viele haben die Fortschritte in der Sensorentwicklung im Zusammenhang mit Verbraucherkameras genossen, aber Produkte, die für Verbraucheranwendungen entwickelt wurden, und solche für die Bildverarbeitung sind sehr unterschiedlich. Es wird immer Überschneidungen und Gemeinsamkeiten zwischen diesen Bereichen geben, aber das Verständnis der Bildverarbeitungsoptik ist für diejenigen, die hochauflösende Bildgebungssysteme bauen, unerlässlich.

Ein Diagramm, das zeigt, wie schräge Lichtstrahlen von einem Objekt auf Mikrolinsen eines Sensors treffen, was zu potenzieller Abschattung oder Übersprechen führt

Abb. 4 — Wenn das in einem Design verwendete externe Objektiv den Akzeptanzwinkel der mit dem Sensor verwendeten Mikrolinse überschreitet, kann Licht von Objekten, die weiter vom zentralen Sichtfeld des Objektivs entfernt sind (grün und rot), den Sensor nicht erreichen.

Ein Diagramm, das zeigt, wie parallele Lichtstrahlen von einem Objekt auf Mikrolinsen eines Sensors treffen und senkrecht auf die Pixel fokussiert werden

Abb. 5 — Um das Problem im Zusammenhang mit mikrolinsenbasierten Sensoren zu überwinden, werden Objektivhersteller externe Objektive anbieten, die im Bildraum nahezu telezentrisch sind. Der Winkel des Lichts, das immer weiter vom Zentrum entfernt ist, bleibt achsparallel, und es tritt kein winkelbedingter Abfall auf.

Ein optisches Diagramm, das zeigt, wie eine Linse Licht auf einen Pixel fokussiert. Es veranschaulicht die Schärfentiefe (als Delta markiert) in Bezug auf die Blende (f/#w)

Abb. 2 – Ein Sensor (rot) kann in Bezug auf das Objektiv gekippt sein. Rote Striche stellen einzelne Pixel dar; die durchgezogene rote Linie zeigt den Punkt an, an dem die Unschärfe der vom Objektiv erzeugten Lichtkegel größer als die Pixel wird, wodurch außerhalb dieser Punkte unscharfe Bilder entstehen. Wenn genügend Pixel hinzugefügt werden und die Ausrichtung nicht perfekt ist, wird das System unscharf. 

Ein Querschnitt eines CMOS-Bildsensor-Pixels. Es zeigt die Sensor-Mikrolinse, elektronische Schaltungen und das Siliziumsubstrat und illustriert den Füllfaktor

Abb. 3 – Mikrolinsen erhöhen den Füllfaktor des Sensors, indem sie so viel Licht wie möglich einfangen. Sie haben jedoch einen Akzeptanzwinkel, in dem sie Licht effektiv sammeln und auf den aktiven Teil des Pixels fokussieren. 

Über den Autor

Stuart W. Singer

Stuart W. Singer CEO Schneider Optics Inc.

Stuart W. Singer ist ein Experte für Präzisionsoptik und Bildverarbeitungssysteme mit mehr als 45 Jahren Erfahrung. Als CEO von Schneider Optics, Inc. verfügt er über langjährige Erfahrung in den Bereichen industrielle Bildverarbeitung und Luft- und Raumfahrtoptik, die er in leitenden Positionen bei führenden Unternehmen gesammelt hat. Stuart ist Senior-Mitglied der SPIE und erhielt den National Emmy Award für die Entwicklung von Filtern für die digitale Cinematographie. Seine Leidenschaft ist es, die Grenzen der Optik auszuloten und Fachleute bei der Entwicklung ihrer Anwendungen zu unterstützen. LinkedIn

 

Kontaktieren Sie uns


Zögern Sie nicht, uns zu kontaktieren, wenn Sie Fragen haben. Unser engagiertes Team steht Ihnen bei jedem Schritt zur Seite.
Ganz gleich, ob Sie Hilfe bei der Produktauswahl, technischen Spezifikationen oder allgemeinen Fragen benötigen.

Jos. Schneider Optische Werke GmbH
Ringstraße 132
55543 Bad Kreuznach | Deutschland

Tel: +49 (0) 671 601 205
isales(at)schneiderkreuznach.com
Kontaktformular