Van CCD naar CMOS en verder

Het verleden en de toekomst van de beeldsensor

Dre de Man 581 0
Nergens in de digitale fotografie is zo veel veranderd als op het gebied van de beeldsensoren. De eerste betaalbare en bruikbare digitale camera’s (1996) hadden gemiddeld een kwart megapixel, tegenwoordig hebben de instapmodellen honderd keer zoveel. Hoe werkt het precies?

Behalve die enorm gestegen resolutie is de ruis is erg sterk afgenomen, de dynamiek toegenomen en de kleurweergave is ook veel beter geworden. Hoe komt dat? En hoe werkt een beeldsensor eigenlijk? Zijn er nog CCD-sensoren? En waarom zijn de middenformaatsensoren zo duur?

In 1975 maakte Steven Sasson van Kodak de eerst digitale camera met een beeldsensor van Fairchild van 100 x 100 pixels. Dat is dus 0,01 megapixel. Pas vijftien jaar later - in 1990 - kwam de eerste digitale camera op de markt, de Logitech Fotoman met 0,1 megapixels. De Logitech had echter nog steeds te weinig pixels om bruikbaar te zijn en een jaar later introduceerde Kodak de DCS, een aangepaste Nikon F3 met 1,3 megapixels. Dat was dan ook de eerste commerciële digitale kleurencamera. Die camera gebruikte het RGB-mozaïek dat al in 1974 ontwerpen was door de Kodak-wetenschapper Bryce Bayer. Al deze camera’s werkten met een CCD-sensor. Deze bestond in een analoge vorm al sinds 1969 en werd aanvankelijk gebruikt in tv-camera’s.

CCD

CCD staat voor Charged Coupled Device. Een CCD bestaat uit een afzonderlijke extra lichtgevoelige siliciumlaag die van spanning voorzien is. Die laag bevindt zich bovenop een andere siliciumlaag. Daarboven zit wéér een laag. De diverse lagen ondergaan bij de productie complexe bewerkingen (doping) terwijl er ook nog eens een isolerende laag tussen de afzonderlijke rijen van de beeldsensor zit. Aan het eind van iedere rij worden de stroompjes van de afzonderlijke pixels versterkt en uitgelezen. Dat kan analoog gebeuren waarbij deze wisselende voltages met een heel hoge frequenties worden gemoduleerd, op die manier werkt een ouderwetse analoge videocamera. Na versterking kunnen de stroompjes echter ook gedigitaliseerd worden. Maar dat is een uiterst ingewikkeld en kwetsbaar proces. Dr. Eric Fossum, de uitvinder van de CMOS, zei hierover in een interview dat wij eerder publiceerden:  ‘Er zijn twee zaken die ik niet begrijp. De eerste is dat een Jumbo 747 vliegt en het tweede is dat een CCD werkt.’

Dit is de beeldsensor van de Nikon D5

CMOS

Vergeleken met een CCD is een CMOS-sensor een wonder van eenvoud. Om te beginnen is het een standaard computerchip. Het standaard silicium waarop nog wat extra zaken gemonteerd worden, is namelijk ook al lichtgevoelig. Minder gevoelig dan de laag die de CCD gebruikt, maar daarom heeft een CMOS-sensor een versterker op iedere pixel. Belangrijker nog is dat er ook een AD-converter op iedere pixel zit (AD= analoog-digitaal). Dat maakt het uitlezen van de pixels heel eenvoudig. De AD-converter en de versterker vormden aanvankelijk ook een nadeel, omdat er daardoor minder oppervlakte overbleef om licht op te vangen. Door de introductie van microlenzen op de pixel is dat nadeel grotendeels weggenomen. Door bovendien de chip om te draaien en de transistors en versterkers aan de andere kant te plaatsen (BIS, back side illuminated) wordt nog meer licht omgezet in spanning. BIS wordt vooral toegepast bij heel kleine sensoren, waar relatief nog minder ruimte overblijft voor het opvangen van licht. De kwantumefficiëntie ligt nu zelfs zonder BIS bij ongeveer 50%, wat wil zeggen dat van iedere twee fotonen er één een elektron genereert. Een groot voordeel van CMOS-sensoren is dat ze ongeveer 100x minder energie verbruiken dan CCD’s. Ze zijn ook sneller uit te lezen.

CMOS-sensoren kunnen in het basisontwerp overeenkomen, maar op kleine punten verschillen. Zo heeft de 36 megapixel beeldsensor die door Sony gefabriceerd wordt, bij de Nikon D810 twee afzonderlijke versterkers per pixel, terwijl dat bij de Sony en Pentax-versies niet zo is. Ook de CFA’s verschillen per merk en per camera.

Kleur en scherpstelling

CCD’s en CMOS-sensoren komen overeen in die zin dat ze (bijna altijd) als bovenste laag een CFA, een color filter array hebben. Dat is een filterlaag die meestal volgens het Bayer-mozaïek is gerangschikt: vierkante blokjes van twee groene pixels, één rode en éen blauwe. Er zijn patenten die de techniek van de kleurenfilms nabootsen, waarbij drie lagen boven elkaar zitten. De door ene Merril ontworpen Foveon-chip (nu verder ontwikkeld door Sigma) is het bekendste voorbeeld. Verder zijn er andere mozaïeken, die (nog) niet toegepast worden. Canon heeft bijvoorbeeld een patent voor een mozaïek met extra pixels die niet kleurgevoelig zijn (wit) en Nikon heeft een patent voor twee lagen van pixels, waarvan de onderste een Bayer-mozaïek is en de bovenste juist de complementaire kleuren bevat. Daarnaast heeft Nikon nog een tweede patent voor een soortgelijke beeldsensor, waarbij de tweede laag gevoelig is voor niet-zichtbaar licht. Dat zou het scherpstellen met de PDAF-methode (fase-detectie) veel sneller en lichtgevoeliger moeten maken. Alle camerafabrikanten gebruiken tegenwoordig bij spiegelloze camera’s (en Canon zelfs bij de reflexcamera’s) al een deel van de pixels voor een vorm van  AF, waarbij de snelste vorm de PDAF-methode is. We kunnen verwachten dat op dit gebied de komende jaren nog veel vooruitgang geboekt wordt.

De Sigma sd Quattro gebruik een meerlaags Foveon-sensor

Hoe wordt een beeldsensor gemaakt?

Het produceren van beeldsensoren is een uiterst gespecialiseerd werk, dat plaatsvindt in clean rooms. In de regel duurt het een aantal weken. Alles bij de fabricage is erop gericht de uitval zo klein mogelijk te houden. Het proces als geheel is namelijk erg kostbaar, onder meer omdat het zich afspeelt op nanometerschaal. Hoe kleiner de structuren, des te beter de chips. De fabricage van vrijwel alle computerchips begint met wafels (wafers) van zeer zuiver silicium (kwartszand) die aan het eind tot afzonderlijke chips worden gesneden. Meestal zijn deze 30 cm groot. Hoe groter ze zijn, hoe winstgevender. Silicium is op zich al lichtgevoelig en het materiaal wordt in verschillende achtereenvolgende lithografische en andere processen onder meer met behulp van extreem dure machines (steppers) bewerkt. Hierdoor ontstaan op de chip meer en minder elektriciteitsgeleidende plekken en elektronische schakelingen, zoals transistors en versterkers. Moderne beeldchips worden opgebouwd uit meerdere lagen, maar bovenop de beeldchip zit in ieder geval een aparte laag met lenzen die het licht concentreren en een (Bayer-)patroon van rood-groen-blauwe filters.

100 megapixel beeldsensor

Lang waren CCD’s in veel opzichten de meerdere van CMOS-sensoren. Dat is echter helemaal omgedraaid in het voordeel van CMOS. Die sensoren hebben minder ruis, kunnen meer beelden per seconde uitlezen, hebben een grotere dynamiek en verbruiken 100x minder energie. CCD’s zijn in de praktijk vrijwel verdwenen en Sony, de grootse producent ervan, heeft al het eind van de productie ervan aangekondigd voor 2025. Zelfs de 100 megapixel Phase One en Hasselbad sensoren – gemaakt door Sony -  zijn CMOS-sensoren. De vorige generatie middenformaat-sensoren waren nog CCD’s.

Net als bij andere chips, zijn CMOS-chips goedkoper naarmate ze kleiner zijn. Dat heeft van doen met de uitval bij de productie. Bij één stofje op een wafer met daarop één chip, is de productieuitval 100%. Datzelfde stofje op een net zo grote wafer met honderd chips houdt een uitval van 1% in. Alle chips groter dan APS-C moeten bovendien worden gestitched, dus als het ware aan elkaar genaaid worden. Bij klein middenformaat (44 mm in de lengte) gaat dat nog enigszins, bij groot middenformaat (ongeveer 54 mm in de lengte) is dat al bijzonder ingewikkeld en erg duur. Voor dat proces zijn namelijk zeer speciale en kostbare machines nodig. Anders dan bij CCD, is de technische ontwikkeling van CMOS nog lang niet aan zijn einde gekomen. Er zal de komende jaren dan ook nog grote vooruitgang geboekt worden.

Lees ook:  FUJIFILM GFX100 revolutionaire middenformaat camera

Quanta Image Sensor

De ontwikkelingen in de sensorwereld gaan hard en er zijn al enkele alternatieven voor de CMOS-sensor ontwikkeld. Eén voorbeeld is de Quanta Image Sensor. Deze chip moet uiteindelijk alle afzonderlijk fotonen kunnen opvangen. Dit betekent dan een resolutie op sub-diffractie niveau en die is dan veel hoger dan die van enig objectief. Bij CMOS is dat nog omgekeerd.

Lees ook: Hoe verhouden scherpte en megapixels zich tot elkaar?

afbeelding van Dre de Man

Dre de Man | Redacteur

Bekijk alle artikelen van Dre