Was bedeutet Smartphone-Kamera-Interpolation? Kamerainterpolation, warum und was ist das? Interpolation ist eine Methode zur Ermittlung von Zwischenwerten

Das Smartphone verfügt über eine 8-MPix-Kamera. Was bedeutet Interpolation bis 13 MPix?

    Guten Tag.

    Das bedeutet, dass Ihr Smartphone ein mit einer 8-MPix-Kamera aufgenommenes Foto/Bild auf 13 MPix streckt. Und das geschieht durch das Auseinanderschieben der echten Pixel und das Einfügen weiterer.

    Vergleicht man jedoch die Qualität eines Bildes/Fotos, das mit 13 MP und 8 MP mit Interpolation auf 13 aufgenommen wurde, dann wird die Qualität des zweiten Bildes deutlich schlechter sein.

    Vereinfacht ausgedrückt: Beim Erstellen eines Fotos fügt der intelligente Prozessor seine eigenen Pixel zu den aktiven Pixeln der Matrix hinzu, als würde er das Bild berechnen und auf eine Größe von 13 Megapixeln zeichnen. Die Ausgabe ist eine Matrix aus 8 und a Foto mit einer Auflösung von 13 Megapixeln. Die Qualität verbessert sich dadurch nicht wesentlich.

    Das bedeutet, dass die Kamera ein Foto mit bis zu 8 MPIX aufnehmen kann, in der Software jedoch Fotos mit bis zu 12 MPIX vergrößern kann. Dies bedeutet, dass es programmgesteuert vergrößert wird, die Bildqualität jedoch nicht verbessert wird, das Bild wird immer noch genau 8 MPIX haben. Das ist ein reiner Trick des Herstellers und solche Smartphones sind teurer.

    Dieses Konzept geht davon aus, dass die Kamera Ihres Geräts immer noch Fotos mit 8 MPIX aufnimmt, aber jetzt ist es in der Software möglich, sie auf 13 MPIX zu erhöhen. Gleichzeitig wird die Qualität nicht besser. Es ist nur so, dass der Raum zwischen den Pixeln verstopft wird, das ist alles.

    Das bedeutet, dass in Ihrer Kamera, da es 8 MPIX gab, diese gleich bleiben – nicht mehr und nicht weniger, und alles andere ist ein Marketingtrick, eine wissenschaftliche Täuschung der Leute, um das Produkt zu einem höheren Preis zu verkaufen und nichts mehr. Diese Funktion ist nutzlos; bei der Interpolation geht die Qualität des Fotos verloren.

    An Chinesische Smartphones Dies wird jetzt ständig verwendet, nur dass ein 13-MP-Kamerasensor viel mehr kostet als ein 8-MP-Sensor, deshalb wird er auf 8 MP eingestellt, aber die Kameraanwendung streckt das resultierende Bild, wodurch die Qualität dieser 13-MP-Sensoren beeinträchtigt wird wird deutlich schlechter, wenn man sich die Originalauflösung anschaut.

    Meiner Meinung nach nützt diese Funktion überhaupt nichts, da 8MP für ein Smartphone völlig ausreichen; im Prinzip reichen mir 3MP, Hauptsache die Kamera selbst ist hochwertig.

    Die Kamerainterpolation ist ein Trick des Herstellers, sie treibt den Preis eines Smartphones künstlich in die Höhe.

    Besitzen Sie eine 8-MPIX-Kamera, dann kann diese ein entsprechendes Bild aufnehmen; die Interpolation verbessert nicht die Qualität des Fotos, sondern vergrößert lediglich die Größe des Fotos auf 13 Megapixel.

    Tatsache ist, dass die echte Kamera in solchen Telefonen 8 Megapixel hat. Mithilfe interner Programme werden die Bilder jedoch auf 13 Megapixel gestreckt. Tatsächlich erreicht es nicht die tatsächlichen 13 Megapixel.

    Bei der Megapixel-Interpolation handelt es sich um eine Software-Unschärfe des Bildes. Echte Pixel werden auseinandergerückt und weitere dazwischen eingefügt, wobei die Farbe dem Durchschnittswert der auseinandergerückten Farben entspricht. Unsinn, Selbsttäuschung, die niemand braucht. Die Qualität verbessert sich nicht.

  • Interpolation ist eine Methode zur Ermittlung von Zwischenwerten

    Wenn all dies in eine menschlichere Sprache übersetzt wird, die auf Ihre Frage anwendbar ist, erhalten Sie Folgendes:

    • Die Software kann Dateien bis zu 13 MPIX verarbeiten (vergrößern, strecken).
  • Bis zu 13 MPix – das könnten 8 echte MPix sein, wie bei Ihnen. Oder 5 echte MPix. Die Kamerasoftware interpoliert die Grafikausgabe der Kamera auf 13 MPixel, wobei das Bild nicht verbessert, sondern elektronisch vergrößert wird. Einfach gesagt, wie eine Lupe oder ein Fernglas. Die Qualität ändert sich nicht.

Eine eingebaute Kamera ist bei der Auswahl eines Smartphones nicht das Letzte. Dieser Parameter ist für viele wichtig, daher achten viele bei der Suche nach einem neuen Smartphone darauf, wie viele Megapixel in der Kamera angegeben sind. Gleichzeitig wissen sachkundige Menschen, dass es nicht ihre Schuld ist. Schauen wir uns also an, worauf Sie bei der Auswahl eines Smartphones mit einer guten Kamera achten müssen.

Wie ein Smartphone aufnimmt, hängt davon ab, welches Kameramodul darin installiert ist. Es sieht aus wie auf dem Foto (die Front- und Hauptkameramodule sehen ungefähr gleich aus). Es lässt sich einfach in der Smartphone-Hülle unterbringen und wird in der Regel mit einem Kabel befestigt. Diese Methode erleichtert den Austausch, wenn es kaputt geht.

Sony hat ein Monopol auf dem Markt. In Smartphones kommen überwiegend die Kameras zum Einsatz. Auch OmniVision und Samsung sind an der Produktion beteiligt.

Der Smartphone-Hersteller selbst ist wichtig. In Wirklichkeit hängt viel von der Marke ab und ein Unternehmen mit Selbstachtung wird sein Gerät mit einer wirklich guten Kamera ausstatten. Aber lassen Sie uns Punkt für Punkt herausfinden, was die Qualität der Smartphone-Fotografie bestimmt.

CPU

Bist du überrascht? Es ist der Prozessor, der mit der Verarbeitung des Bildes beginnt, wenn er Daten von der Fotomatrix empfängt. Egal wie hochwertig die Matrix ist, ein schwacher Prozessor ist nicht in der Lage, die von ihr empfangenen Informationen zu verarbeiten und umzuwandeln. Dies gilt nicht nur für die Aufnahme von Videos in hoher Auflösung und schnellen Bildern pro Sekunde, sondern auch für die Erstellung hochauflösender Bilder.

Je mehr Bilder pro Sekunde sich ändern, desto höher ist natürlich die Belastung des Prozessors.

Unter Leuten, die sich mit Telefonen auskennen oder denken, dass sie es verstehen, gibt es die Meinung, dass Smartphones mit amerikanischen Qualcomm-Prozessoren bessere Bilder machen als Smartphones mit taiwanesischen MediaTek-Prozessoren. Ich werde dies weder widerlegen noch bestätigen. Nun, die Tatsache, dass es seit 2016 keine Smartphones mit hervorragenden Kameras auf leistungsschwachen chinesischen Spreadtrum-Prozessoren gibt, ist bereits eine Tatsache.

Anzahl der Megapixel

Das Bild besteht aus Pixeln (Punkten), die während der Aufnahme von einer Fotomatrix gebildet werden. Je mehr Pixel, desto besser ist natürlich die Qualität des Bildes und desto höher ist seine Klarheit. Bei Kameras wird dieser Parameter in Megapixeln angegeben.

Megapixel (Mp, Mpx, Mpix) – ein Indikator für die Auflösung von Fotos und Videos (Anzahl der Pixel). Ein Megapixel entspricht einer Million Pixel.

Nehmen wir zum Beispiel das Smartphone Fly IQ4516 Tornado Slim. Es nimmt Fotos mit einer maximalen Auflösung von 3264x2448 Pixeln (3264 Farbpunkte in der Breite und 2448 in der Höhe) auf. 3264 Pixel multipliziert mit 2448 Pixel ergeben 7.990.272 Pixel. Da die Zahl groß ist, wird sie in Mega umgewandelt. Das heißt, die Zahl 7.990.272 Pixel beträgt ungefähr 8 Millionen Pixel, also 8 Megapixel.

Theoretisch bedeuten mehr Quietschgeräusche ein klareres Foto. Aber vergessen Sie nicht den Lärm, die Verschlechterung der Aufnahme bei schlechten Lichtverhältnissen usw.

Interpolation

Leider verachten viele chinesische Smartphone-Hersteller Software zur Erhöhung der Auflösung nicht. Dies nennt man Interpolation. Dabei kann die Kamera ein Foto mit einer maximalen Auflösung von 8 Megapixeln aufnehmen, per Software wird diese auf 13 Megapixel erhöht. Die Qualität verbessert sich dadurch natürlich nicht. Wie kann man sich in diesem Fall nicht täuschen lassen? Suchen Sie im Internet nach Informationen darüber, welches Kameramodul in Ihrem Smartphone verwendet wird. Die Eigenschaften des Moduls geben an, in welcher Auflösung es aufnimmt. Wenn Sie keine Informationen zum Modul gefunden haben, besteht bereits Grund zur Vorsicht. Manchmal deuten die Eigenschaften eines Smartphones durchaus darauf hin, dass die Kamera beispielsweise von 13 MP auf 16 MP interpoliert wurde.

Software

Unterschätzen Sie nicht Software, die verarbeitet digitales Bild und es uns in der endgültigen Form zu präsentieren, in der wir es auf dem Bildschirm sehen. Es bestimmt die Farbwiedergabe, eliminiert Rauschen, sorgt für Bildstabilisierung (wenn das Smartphone in Ihrer Hand beim Fotografieren zuckt) usw. Ganz zu schweigen von den verschiedenen Aufnahmemodi.

Kameramatrix

Wichtig sind die Art der Matrix (CCD oder CMOS) und ihre Größe. Sie erfasst das Bild und überträgt es zur Verarbeitung an den Prozessor. Die Kameraauflösung hängt von der Matrix ab.

Blende (Blende)

Bei der Auswahl eines Smartphones mit einer guten Kamera sollten Sie auf diesen Parameter achten. Grob gesagt gibt er an, wie viel Licht die Matrix durch die Optik des Moduls erhält. Je mehr desto besser. Weniger eingestellt – mehr Lärm. Die Blende wird durch den Buchstaben F gefolgt von einem Schrägstrich (/) gekennzeichnet. Nach dem Schrägstrich wird der Blendenwert angezeigt. Je kleiner dieser ist, desto besser. Als Beispiel wird es wie folgt angegeben: F/2,2, F/1,9. Oft angegeben in technische Spezifikationen Smartphone.

Eine Kamera mit einer Blende von F/1,9 schießt besser gedimmtes Licht als eine Kamera mit einer F/2,2-Blende, da dadurch mehr Licht auf den Sensor fällt. Aber auch die Stabilisierung ist wichtig, sowohl softwaremäßig als auch optisch.

Optische Stabilisierung

Smartphones sind selten mit einer optischen Stabilisierung ausgestattet. In der Regel handelt es sich dabei um teure Geräte mit einer fortschrittlichen Kamera. Ein solches Gerät kann als Kamerahandy bezeichnet werden.

Die Aufnahme mit dem Smartphone erfolgt mit bewegter Hand und eine optische Stabilisierung verhindert, dass das Bild unscharf wird. Möglicherweise gibt es auch eine Hybridstabilisierung (Software + optisch). Die optische Stabilisierung ist besonders wichtig bei langen Verschlusszeiten, wenn aufgrund unzureichender Beleuchtung in einem speziellen Modus ein Foto für 1-3 Sekunden aufgenommen werden kann.

Blitz

Der Blitz kann LED oder Xenon sein. Letzteres wird viel bringen die besten Fotos in Abwesenheit von Licht. Es gibt einen Dual-LED-Blitz. Selten, aber es kann zwei geben: LED und Xenon. Dies ist die beste Option. Implementiert im Kamerahandy Samsung M8910 Pixon12.

Wie Sie sehen, hängt die Art und Weise, wie ein Smartphone schießt, von vielen Parametern ab. Bei der Auswahl sollten Sie daher bei den Eigenschaften auf den Namen des Moduls, die Blende und das Vorhandensein einer optischen Stabilisierung achten. Suchen Sie am besten im Internet nach Testberichten zu einem bestimmten Telefon. Dort finden Sie Beispielbilder sowie die Meinung des Autors zur Kamera.

Bei der Kamerainterpolation handelt es sich um eine künstliche Erhöhung der Bildauflösung. Es ist das Bild, nicht die Matrixgröße. Das heißt, es handelt sich um eine spezielle Software, mit der ein 8-Megapixel-Bild auf 13 Megapixel oder mehr (oder weniger) interpoliert wird. Um eine Analogie zu verwenden: Die Kamerainterpolation ist wie eine Lupe oder ein Fernglas. Diese Geräte vergrößern das Bild, lassen es jedoch nicht besser oder detaillierter aussehen. Wenn also in den technischen Daten des Telefons eine Interpolation angegeben ist, ist die tatsächliche Kameraauflösung möglicherweise niedriger als angegeben. Es ist nicht gut oder schlecht, es ist einfach so.

Die Interpolation wurde erfunden, um das Bild zu vergrößern, nicht mehr. Dies ist nun ein Trick von Vermarktern und Herstellern, die versuchen, ein Produkt zu verkaufen. Sie geben auf dem Werbeplakat in großer Zahl die Auflösung der Handykamera an und positionieren diese als Vorteil oder etwas Gutes. Die Auflösung selbst hat nicht nur keinen Einfluss auf die Qualität der Fotos, sie kann auch interpoliert werden.

Vor buchstäblich 3-4 Jahren waren viele Hersteller auf der Suche nach der Anzahl der Megapixel und verschiedene Wege Ich habe versucht, sie mit so vielen Sensoren wie möglich in ihre Smartphone-Sensoren zu zwängen. So entstanden Smartphones mit Kameras mit einer Auflösung von 5, 8, 12, 15, 21 Megapixeln. Gleichzeitig konnten sie wie die billigsten Kompaktkameras fotografieren, aber als Käufer den Aufkleber „18-MP-Kamera“ sahen, wollten sie sofort ein solches Telefon kaufen. Mit dem Aufkommen der Interpolation ist es aufgrund der Möglichkeit, der Kamera künstlich Megapixel hinzuzufügen, einfacher geworden, solche Smartphones zu verkaufen. Natürlich begann sich die Fotoqualität mit der Zeit zu verbessern, aber sicherlich nicht aufgrund der Auflösung oder Interpolation, sondern aufgrund des natürlichen Fortschritts in Bezug auf die Sensorentwicklung und Software.

Was ist Kamerainterpolation in einem Telefon technisch gesehen, da der gesamte Text oben nur die Grundidee beschreibt?

Mithilfe einer speziellen Software werden neue Pixel auf das Bild „gezeichnet“. Um beispielsweise ein Bild um das Zweifache zu vergrößern, wird nach jeder Pixelzeile im Bild eine neue Zeile hinzugefügt. Jedes Pixel in dieser neuen Zeile wird mit einer Farbe gefüllt. Die Füllfarbe wird durch einen speziellen Algorithmus berechnet. Der allererste Weg ist das Gießen Neue Zeile Farben, die die nächstgelegenen Pixel haben. Das Ergebnis einer solchen Verarbeitung wird schrecklich sein, aber diese Methode erfordert ein Minimum an Rechenoperationen.

Am häufigsten wird eine andere Methode verwendet. Das heißt, dem Originalbild werden neue Pixelreihen hinzugefügt. Jedes Pixel wird mit einer Farbe gefüllt, die wiederum als Durchschnitt benachbarter Pixel berechnet wird. Diese Methode liefert bessere Ergebnisse, erfordert jedoch mehr Rechenoperationen. Glücklicherweise sind moderne mobile Prozessoren schnell und in der Praxis merkt der Benutzer nicht, wie das Programm das Bild bearbeitet und versucht, es künstlich zu vergrößern. Interpolation von Smartphone-Kameras Es gibt viele fortschrittliche Interpolationsmethoden und -algorithmen, die ständig verbessert werden: Die Grenzen des Übergangs zwischen Farben werden verbessert, die Linien werden genauer und klarer. Es spielt keine Rolle, wie all diese Algorithmen aufgebaut sind. Die Idee der Kamerainterpolation ist banal und wird sich in naher Zukunft wahrscheinlich nicht durchsetzen. Durch die Interpolation kann ein Bild nicht detaillierter gemacht, neue Details hinzugefügt oder auf andere Weise verbessert werden. Lediglich bei Filmen wird nach der Anwendung einiger Filter ein kleines unscharfes Bild deutlich. In der Praxis kann dies nicht passieren.
.html

Sensoren sind Geräte, die nur Graustufen (Abstufungen der Lichtintensität – von ganz weiß bis ganz schwarz) erkennen. Damit die Kamera Farben unterscheiden kann, werden mithilfe eines Fotolithografieverfahrens eine Reihe von Farbfiltern auf das Silizium aufgebracht. Bei Sensoren, die Mikrolinsen verwenden, werden Filter zwischen den Linsen und dem Fotodetektor platziert. Bei Scannern, die trilineare CCDs verwenden (drei nebeneinander angeordnete CCDs, die jeweils auf die Farben Rot, Blau und Grün reagieren) oder bei High-End-Digitalkameras, die ebenfalls drei Sensoren verwenden, filtert jeder Sensor eine andere Lichtfarbe. (Beachten Sie, dass einige Multisensorkameras Kombinationen mehrerer Filterfarben anstelle der standardmäßigen drei verwenden.) Bei Geräten mit nur einem Sensor, wie den meisten Digitalkameras für Endverbraucher, werden jedoch Farbfilterarrays (CFA) zur Verarbeitung der verschiedenen Farben verwendet.

Damit jedes Pixel seine eigene Grundfarbe hat, wird darüber ein Filter der entsprechenden Farbe platziert. Bevor Photonen ein Pixel erreichen, passieren sie zunächst einen Filter, der nur Wellen seiner eigenen Farbe durchlässt. Licht unterschiedlicher Länge wird einfach vom Filter absorbiert. Wissenschaftler haben festgestellt, dass jede Farbe im Spektrum durch Mischen nur weniger Primärfarben erhalten werden kann. Im RGB-Modell gibt es drei solcher Farben.

Für jede Anwendung werden eigene Arrays von Farbfiltern entwickelt. Aber in den meisten Digitalkamerasensoren sind die Bayer-Musterfilter die beliebtesten Filterarrays. Diese Technologie wurde in den 70er Jahren von Kodak erfunden, als sie an der räumlichen Trennung forschten. Bei diesem System sind die Filter schachbrettartig verstreut angeordnet und die Anzahl der Grünfilter ist doppelt so groß wie die der Rot- oder Blaufilter. Die Anordnung ist so getroffen, dass die Rot- und Blaufilter zwischen den Grünfiltern liegen.

Dieses Mengenverhältnis erklärt sich aus der Struktur des menschlichen Auges – es reagiert empfindlicher auf grünes Licht. Und das Schachbrettmuster sorgt dafür, dass die Bilder immer die gleiche Farbe haben, egal wie Sie die Kamera halten (vertikal oder horizontal). Beim Lesen von Informationen von einem solchen Sensor werden Farben nacheinander in Zeilen geschrieben. Die erste Zeile sollte BGBGBG sein, die nächste Zeile sollte GRGRGR usw. sein. Diese Technologie wird als sequentielles RGB bezeichnet.

Bei CCD-Kameras werden alle drei Signale nicht auf dem Sensor, sondern im Bilderzeugungsgerät kombiniert, nachdem das Signal von analog in digital umgewandelt wurde. Bei CMOS-Sensoren kann diese Ausrichtung direkt auf dem Chip erfolgen. In beiden Fällen werden die Primärfarben jedes Filters mathematisch auf der Grundlage der Farben benachbarter Filter interpoliert. Beachten Sie, dass in jedem Bild die meisten Punkte Mischungen der Primärfarben sind und nur wenige tatsächlich reines Rot, Blau oder Grün darstellen.

Um beispielsweise den Einfluss benachbarter Pixel auf die Farbe des zentralen Pixels zu bestimmen, wird bei der linearen Interpolation eine 3x3-Pixelmatrix verarbeitet. Nehmen wir zum Beispiel den einfachsten Fall – drei Pixel – mit Blau-, Rot- und Blaufiltern, angeordnet in einer Zeile (BRB). Nehmen wir an, Sie versuchen, den resultierenden Farbwert eines roten Pixels zu ermitteln. Wenn alle Farben gleich sind, wird die Farbe des zentralen Pixels mathematisch aus zwei Teilen Blau und einem Teil Rot berechnet. Tatsächlich sind sogar einfache lineare Interpolationsalgorithmen viel komplexer; sie berücksichtigen die Werte aller umgebenden Pixel. Wenn die Interpolation schlecht ist, treten an den Farbänderungsgrenzen gezackte Kanten auf (oder es treten Farbartefakte auf).

Beachten Sie, dass das Wort „Auflösung“ im Bereich der digitalen Grafik falsch verwendet wird. Puristen (oder Pedanten, was auch immer Sie bevorzugen), die mit Fotografie und Optik vertraut sind, wissen, dass die Auflösung ein Maß für die Fähigkeit des menschlichen Auges oder Instruments ist, einzelne Linien in einem Auflösungsraster zu unterscheiden, wie zum Beispiel dem unten gezeigten ISO-Raster. In der Computerbranche ist es jedoch üblich, die Anzahl der Pixel zu benennen, und da dies der Fall ist, werden wir uns auch an diese Konvention halten. Schließlich bezeichnen selbst Entwickler die Auflösung als die Anzahl der Pixel im Sensor.


Sollen wir zählen?

Die Größe der Bilddatei hängt von der Anzahl der Pixel (Auflösung) ab. Je mehr Pixel, desto größer die Datei. Beispielsweise nimmt ein Bild von VGA-Standardsensoren (640 x 480 oder 307.200 aktive Pixel) in unkomprimierter Form etwa 900 Kilobyte ein. (307200 Pixel mit 3 Bytes (R-G-B) = 921600 Bytes, was etwa 900 Kilobytes entspricht) Ein Bild von einem 16-MP-Sensor nimmt etwa 48 Megabytes ein.

Es scheint, dass es keine Möglichkeit gibt, die Anzahl der Pixel im Sensor zu zählen, um die Größe des resultierenden Bildes zu bestimmen. Allerdings präsentieren die Kamerahersteller eine Reihe unterschiedlicher Zahlen und behaupten jedes Mal, dass dies die tatsächliche Auflösung der Kamera sei.

Die Gesamtzahl der Pixel umfasst alle Pixel, die physisch im Sensor vorhanden sind. Als aktiv gelten aber nur diejenigen, die sich an der Bildgewinnung beteiligen. Etwa fünf Prozent aller Pixel tragen nicht zum Bild bei. Hierbei handelt es sich entweder um defekte Pixel oder um Pixel, die von der Kamera für einen anderen Zweck verwendet werden. Beispielsweise kann es Masken zur Bestimmung des Dunkelstrompegels oder zur Bestimmung des Rahmenformats geben.

Das Rahmenformat ist das Verhältnis zwischen der Breite und Höhe des Sensors. Bei einigen Sensoren, beispielsweise bei einer Auflösung von 640 x 480, beträgt dieses Verhältnis 1,34:1, was dem Rahmenformat der meisten Computermonitore entspricht. Dies bedeutet, dass die von solchen Sensoren erstellten Bilder ohne vorheriges Zuschneiden genau auf den Bildschirm passen. Bei vielen Geräten entspricht das Bildformat dem Format herkömmlicher 35-mm-Filme, wobei das Verhältnis 1:1,5 beträgt. Dadurch können Sie Bilder in Standardgröße und -form aufnehmen.


Auflösungsinterpolation

Zusätzlich zur optischen Auflösung (der tatsächlichen Fähigkeit von Pixeln, auf Photonen zu reagieren) gibt es auch eine Auflösung, die durch Hardware und Software mithilfe von Interpolationsalgorithmen erhöht wird. Wie die Farbinterpolation analysiert auch die Auflösungsinterpolation Daten benachbarter Pixel mathematisch. In diesem Fall entstehen durch Interpolation Zwischenwerte. Diese „Implementierung“ neuer Daten kann recht reibungslos erfolgen, wobei die interpolierten Daten irgendwo zwischen den tatsächlichen optischen Daten liegen. Manchmal können jedoch während einer solchen Operation verschiedene Interferenzen, Artefakte und Verzerrungen auftreten, wodurch sich die Bildqualität nur verschlechtert. Daher glauben viele Pessimisten, dass die Auflösungsinterpolation überhaupt keine Möglichkeit ist, die Bildqualität zu verbessern, sondern nur eine Methode zur Vergrößerung der Dateien. Achten Sie bei der Geräteauswahl darauf, welche Auflösung angegeben ist. Lassen Sie sich von der hohen interpolierten Auflösung nicht zu sehr begeistern. (Es ist als interpoliert oder erweitert gekennzeichnet).

Ein weiterer Bildverarbeitungsprozess auf Softwareebene ist die Unterabtastung. Im Wesentlichen handelt es sich um den umgekehrten Prozess der Interpolation. Dieser Prozess wird in der Bildverarbeitungsphase durchgeführt, nachdem die Daten von der analogen in die digitale Form umgewandelt wurden. Dadurch werden Daten von verschiedenen Pixeln entfernt. Bei CMOS-Sensoren kann dieser Vorgang auf dem Chip selbst durchgeführt werden, indem das Lesen bestimmter Pixelzeilen vorübergehend deaktiviert wird oder indem nur Daten von ausgewählten Pixeln gelesen werden.

Downsampling erfüllt zwei Funktionen. Erstens zur Datenkomprimierung – um mehr Schnappschüsse einer bestimmten Größe im Speicher zu speichern. Je geringer die Pixelzahl, desto kleiner die Dateigröße und desto mehr Bilder passen auf eine Speicherkarte oder in den Speicher. interner Speicher Geräte und desto seltener müssen Sie Fotos auf Ihren Computer herunterladen oder Speicherkarten wechseln.

Die zweite Funktion dieses Prozesses besteht darin, Bilder einer bestimmten Größe für bestimmte Zwecke zu erstellen. Kameras mit einem 2MP-Sensor sind durchaus in der Lage, ein Standardfoto im Format 8x10 Zoll aufzunehmen. Wenn Sie jedoch versuchen, ein solches Foto per Post zu versenden, wird der Brief merklich größer. Durch Downsampling können Sie ein Bild so verarbeiten, dass es auf den Monitoren Ihrer Freunde normal aussieht (wenn Sie nicht auf Details achten) und es gleichzeitig auch auf Computern mit langsamer Verbindung schnell genug senden.

Nachdem wir nun mit den Prinzipien der Sensorfunktion vertraut sind und wissen, wie ein Bild entsteht, wollen wir etwas tiefer blicken und auf komplexere Situationen eingehen, die in der digitalen Fotografie auftreten.


Spitze