DIGIFOTO Lab: Alles over je camerasensor

DIGIFOTO Lab: Alles over sensoren

Dre de Man 299
Nergens in de digitale fotografie is zo veel veranderd als op het gebied van de beeldsensoren. De eerste betaalbare en bruikbare digitale camera’s (1996) hadden gemiddeld een kwart megapixel, tegenwoordig hebben de instapmodellen honderd keer zoveel. Behalve die enorm gestegen resolutie is de ruis is erg sterk afgenomen, de dynamiek toegenomen en de kleurweergave is ook veel beter geworden. Hoe komt dat? En hoe werkt een sensor eigenlijk? Zijn er nog CCD-sensoren? En waarom zijn de middenformaatsensoren zo duur?

In 1975 maakte Steven Sasson van Kodak de eerst digitale camera, met een sensor van Fairchild van 100 x 100 pixels, dus 0,01 megapixel. Pas vijftien jaar later - in 1990 - kwam de eerste digitale camera op de markt, de Logitech Fotoman, met 0,1 megapixels. De Logitech had echter nog steeds te weinig pixels om bruikbaar te zijn en een jaar later introduceerde Kodak de DCS, een aangepaste Nikon F3 met 1,3 megapixels. Dat was ook de eerste commerciële digitale kleurencamera, hij gebruikte het RGB-mozaïek dat al in 1974 ontwerpen was door de Kodak-wetenschapper Bryce Bayer. Al deze camera’s werkten met een CCD-sensor. Deze bestond in een analoge vorm al sinds 1969 en werd aanvankelijk gebruikt in tv-camera’s.

CCD

CCD staat voor charged coupled device. Een CCD bestaat uit een afzonderlijke extra lichtgevoelige siliciumlaag die avn spanning voorzien is, bovenop een ander siliciumlaag. Daarboven zit weer een laag. De diverse lagen ondergaan bij de productie complexe bewerkingen (doping) terwijl er ook nog eens een isolerende laag tussen de afzonderlijke rijen van de sensor zit. Aan het eind van iedere rij worden de stroompjes van de afzonderlijke pixels versterkt en uitgelezen. Dat kan analoog gebeuren waarbij deze wisselende voltages met een heel hoge frequenties worden gemoduleerd, en zo werkt een ouderwetse analoge videocamera. Na versterking kunnen de stroompjes echter ook gedigitaliseerd worden, maar dat is een uiterst ingewikkeld en kwetsbaar proces. Dr. Eric Fossum, de uitvinder van de CMOS (zie hierna) zegt er dit over: ‘Er zijn twee zaken die ik niet begrijp. De eerste is dat een Jumbo 747 vliegt en het tweede is dat een CCD werkt.’

CMOS

Vergeleken met een CCD is een CMOS-sensor een wonder van eenvoud. Om te beginnen is het een standaard computerchip. Het standaard silicium waarop nog wat extra zaken gemonteerd worden, is namelijk ook al lichtgevoelig. Minder gevoelig dan de laag die de CCD gebruikt, maar daarom heeft een CMOS-sensor een versterker op iedere pixel. Belangrijker nog is dat er ook een AD-converter op iedere pixel zit (AD= analoog-digitaal). Dat maakt het uitlezen van de pixels heel eenvoudig. De AD-converter en de versterker vormden aanvankelijk ook een nadeel, omdat er daardoor minder oppervlakte overbleef om licht op te vangen. Door de introductie van microlenzen op de pixel is dat nadeel grotendeels weggenomen. Door bovendien de chip om te draaien en de transistors en versterkers aan de andere kant te plaatsen (BIS, back side illuminated) wordt nog meer licht omgezet in spanning. BIS wordt vooral toegepast bij heel kleine sensoren, waar relatief nog minder ruimte overblijft voor het opvangen van licht. De kwantumefficiëntie ligt nu zelfs zonder BIS bij ongeveer 50%, wat wil zeggen dat van ieder twee fotonen er één een elektron genereert. Een groot voordeel van CMOS-sensoren is dat ze ongeveer 100x minder energie verbruiken dan CCD’s. Ze zijn ook sneller uit te lezen.

CMOS-sensoren kunnen in het basisontwerp overeenkomen, maar op kleine punten verschillen. Zo heeft de 36 megapixel sensor die door Sony gefabriceerd wordt, bij de Nikon D810 twee afzonderlijke versterkers per pixel, terwijl dat bij de Sony en Pentax-versies niet zo was. Ook de CFA’s (zie hierna) verschillen per merk en per camera.

Kleur en scherpstelling

CCD’s en CMOS-sensoren komen overeen die die zin dat ze (bijna altijd) als bovenste laag een CFA, een color filter array hebben. Dat is een filterlaag die meestal volgens het Bayer-mozaïek is gerangschikt: vierkante blokjes van twee groene pixels, één rode en éen blauwe. Er zijn patenten die de techniek van de kleurenfilms nabootsen, waarbij drie lagen boven elkaar zitten. De door Merril ontworpen Foveon-chip (nu verder ontwikkeld door Sigma) is het bekendste voorbeeld. Verder zijn er andere mozaïeken, die (nog) niet toegepast worden. Canon heeft bijvoorbeeld een patent voor een mozaïek met extra pixels die niet kleurgevoelig zijn (wit). Nikon heeft een patent voor twee lagen van pixels, de onderste in een Bayer-mozaïek en de bovenste in de complementaire kleuren daarvan. Daarnaast heeft Nikon nog een tweede patent voor een soortgelijke sensor, waarbij de tweede laag gevoelig is voor niet-zichtbaar licht. Dat zou het scherpstellen met de PDAF-methode (fase-detectie) veel sneller en lichtgevoeliger moeten maken. Alle camerafabrikanten gebruiken tegenwoordig bij spiegelloze camera’s (en Canon zelfs bij de reflexcamera’s) al een deel van de pixels voor een of andere vorm van  AF, waarbij de snelste vorm de PDAF-methode is. We kunnen verwachten dat op dit gebied de komende jaren nog veel vooruitgang geboekt wordt.

Een ander variant bij het sensorontwerp, is de Sony curved – dus gebogen - sensor. Deze biedt het voordeel dat de objectieven nauwelijks correctie voor beeldwelving nodig hebben en dus beter en/of eenvoudiger van constructie kunnen zijn. Sony heeft er voor zover bekend nog geen objectieven voor.

100 megapixel

Lang waren CCD’s in veel opzichten de meerdere van CMOS-sensoren. Dat is echter helemaal omgedraaid in het voordeel van CMOS. Die sensoren hebben minder ruis, kunnen meer beelden per seconde uitlezen, hebben een grotere dynamiek en verbruiken 100 x minder energie. CCD’s zijn in de praktijk vrijwel verdwenen en Sony, de grootse producent ervan, heeft al het eind van de productie ervan aangekondigd voor 2025. Zelfs de 100 megapixel Phase One en Hasselbad sensoren – gemaakt door Sony -  zijn CMOS-sensoren. De vorige generatie middenformaat-sensoren waren nog CCD’s.

Net als bij andere chips, zijn CMOS-chips goedkoper naarmate ze kleiner zijn. Dat heeft van doen met de uitval bij de productie. Bij één stofje op een wafer met daarop één chip, is de productieuitval 100%. Datzelfde stofje op een net zo grote wafer met honderd chips houdt een uitval van 1% in. Alle chips groter dan APS-C moeten bovendien gestitched, dus als het ware aan elkaar genaaid worden. Bij klein middenformaat (44 mm in de lengte) gaat dat nog enigszins, bij groot middenformaat (ca. 54 mm in de lengte) is dat al bijzonder ingewikkeld en erg duur want er komen zeer speciale machines aan te pas.

Anders dan bij CCD, is de technische ontwikkeling van CMOS nog lang niet aan zijn einde gekomen. Er zal de komende jaren dan ook nog grote vooruitgang geboekt worden. Toch bestaat er al een sensor, die de waarschijnlijke opvolger van de CMOS-chip is: de Quanta Image Sensor. Deze chip moet uiteindelijk alle afzonderlijk fotonen kunnen opvangen zowel in de lengte als breedte als in de tijd. Dit betekent dus een resolutie op sub-diffractie niveau. Die is dan veel hoger is dan die van enig objectief, met CMOS is dat nog omgekeerd. Met het registeren van tijd als derde dimensie zou je er allerlei toepassingen voor kunnen bedenken, maar, alweer volgens Dr. Eric Fossum, kunnen we ons de meest belangrijke toepassingen waarschijnlijk nog niet eens voorstellen.

 

 

afbeelding van Dre de Man
Door: Dre de Man

Dre de Man | Redacteur

Bekijk alle artikelen van Dre