Technologie


3D Time-of-Flight Sensoren

Bei Sensoren, die auf diesem Prinzip der Lichtlaufzeitmessung basieren, ist der Signalwert eines einzelnen Bildpunktes nicht proportional zur Lichtintensität der betrachteten Szene, wie es bei klassischen Bildsensoren der Fall ist, sondern proportional zur Entfernung des abgebildeten Punktes in der Szene.


Funktionsprinzip von 3D Time-of-Flight Sensoren

Time-of-Flight (ToF) Sensoren emittieren einen diffusen Lichtkegel mit modulierter Intensität, beispielsweise in Form eines Sinus, welches die betrachtete Szene beleuchtet und von dieser reflektiert wird. Die Wellenlänge des ausgesendeten Signals liegt im Bereich des nicht sichtbaren nahen Infrarotlichts. Das reflektierte Signal wird von einem Detektor empfangen, der in seiner Struktur einem konventionellen Bildsensor ähnelt. Durch eine Korrelation des emittierten und empfangenen Lichtsignals kann eine Phasenverschiebung ermittelt werden, welche einer Distanzinformation entspricht. Hierzu werden die von dem Detektor empfangenen Photonen im photosensitiven Halbleiterbereich in Elektronen umgewandelt und entfernungsabhängig in unterschiedlichen Ladungsschaukeln getrennt. Somit stellt das resultierende Ausgangssignal eines jeden Bildpunktes eine direkte Beziehung zur eigentlichen Tiefeninformation der betrachteten Szene her.


Ausgabe eines 3D Time-of-Flight Sensors

Dieses steht im Gegensatz zu den meisten am Markt verfügbaren Systemen zur optischen Erfassung von dreidimensionalen Strukturen, die auf dem Prinzip der Triangulation basieren, wie beispielsweise Stereo- Kamerasysteme oder Laserscanner. Hier ist zumeist, im Gegensatz zu ToF-Sensoren, ein signifikant höherer Rechenaufwand zur Bestimmung der Distanzkarte notwendig, vorausgesetzt die zur Triangulation maßgeblichen Merkmale konnten in beiden Bildern identifiziert werden.

Hochdynamische CMOS-Bildsensoren (HDR)

Mehr als 90% der eingesetzten Bildsensoren auf dem Verbrauchermarkt basieren derzeit auf der CCD- Technologie (Charge-coupled Device). Der Einsatz dieser Sensoren im Automobilbereich gestaltet sich allerdings als problematisch, da sie über eine geringe optische Dynamik verfügen und zur Schleierbildung (Blooming) bzw. zum Verschmieren (Smearing) neigen.

Allerdings hat sich in den letzten Jahren eine Alternative aufgetan, die auf einer fast vergessenen Technologie basiert, die sogenannte CMOS-Technologie (Complementary Metal Oxide Semiconductor). Der wesentliche Unterschied zwischen diesen beiden Technologien besteht darin, dass bei CMOS-Bildsensoren der integrierte Photostrom eines Bildpunktes nicht über die Nachbarbildpunkte an den Rand des ICs geleitet wird, wie es bei CCD-Sensoren der Fall ist, sondern das über eine Adressleitung jedes Pixel einzeln ansteuerbar ist und ausgelesen wird.

Die Vorteile, die für einen Einsatz der CMOS- Technologie sprechen, sind vielfältig, so ist beispielsweise die Realisierung eines geschlossenen bildgebenden Sensorsystems auf einem einzigen IC möglich (SoC). Bedingt durch das Realisierungsprinzip treten bei CMOS- Bildsensoren auch keine Schleierbildung und keine Verschmierungen auf. Der größte Vorteil, der diese Technologie auszeichnet, ist allerdings die Möglichkeit, Bildsensoren mit einer optischen Dynamik von mehr als 100dB zu realisieren.

Bei den Einsatz unter instabilen Umgebungslichtverhältnissen, wie es bei Anwendungen rund um das Automobil der Fall ist, kommt der große Vorteil der CMOS-Bildsensoren zum Tragen, die hohe optische Dynamik. Diese resultiert aus den unterschiedlichen Kennlinien mit denen diese CMOS-Bildsensoren hochdynamisch betrieben werden können. Aus diese Art und Weise ist es möglich eine Szene ohne Überblendungen oder Unterbelichtungen abzubilden, was bei herkömmlichen Bildsensoren, wie sie beispielsweise in handelsüblichen Digitalkameras verbaut sind, aufgrund ihrer direkten Linearität nicht realisierbar ist.

Eine Möglichkeit eine hochdynamische Kamera zu realisieren, ist die mehrfache Aufnahme einer Szene mit unterschiedlichen Integrationszeiten, welche in einem finalen Bild mit erhöhtem Dynamikumfang kombiniert werden. Eine weitere Möglichkeit, den hohen Dynamikumfang einer solchen Szene abzubilden, ist die Verwendung einer logarithmischen Kennlinie, was allerdings zu einem geringen Kontrast in den wesentlichen Bereichen des aufgenommenen Bildes führen kann. Dieses hat zur Folge, dass sich zunehmend Kombinationen aus linearen und/oder logarithmischen Kennlinien am Bildsensormarkt durchsetzen, so genannten piece-wise linear Kennlinien.

Hierdurch wird sichergestellt, dass in den relevanten Bereichen ausreichend Kontrast vorhanden ist, eine Sättigung anderer Bereiche hingegen vermieden wird. Während sich bei handelsüblichen Sensorsystemen eine Digitalisierung des aufgenommen Photostroms mit 8 Bit pro Farbkanal durchgesetzt hat, sind es bei hochdynamischen Bildsensoren in der Regel 10 Bit oder mehr pro Farbkanal, was mehr als 1024 Intensitätsstufen entspricht.

Allerdings sei an dieser Setelle auch darauf hingewiesen, dass sich die Verwendung der CMOS-Technologie auch Nachteile ergeben. Hier sind vor allen die geringere Bildqualität bei optimalen Lichtbedingungen, das erhöhte Rauschen (Fix-Pattern-Noise, etc.) und das verringerte Auflösungsvermögen zu nennen, was durch einen im Vergleich zur CCD-Technologie verringerten Füllfaktor bedingt ist, welcher die optisch aktive Fläche eines einzelnen Bildpunktes beschreibt.