So führen Sie eine Kamerainterpolation durch. So wählen Sie ein Smartphone mit einer guten Kamera aus

P2P-Kamera- IP-Kamera enthaltend Software, sodass Sie sie mithilfe einer eindeutigen Nummer (ID-Nummer) identifizieren und aus der Ferne eine Verbindung zur Kamera herstellen können, ohne eine statische IP-Adresse oder Funktionen wie DDNS und UPnPct zu verwenden. P2P-Kameras wurden entwickelt, um es normalen, nicht fachkundigen Benutzern zu erleichtern, einen Fernzugriff auf die Kamera einzurichten.

Wie funktioniert eine P2P-Kamera?

Wenn eine P2P-Kamera mit dem Internet verbunden ist (über einen Router oder eine 3G-Verbindung), sendet die Kamera automatisch eine Anfrage an einen Remote-Server, der die Kamera anhand ihrer eindeutigen ID-Nummer identifiziert. Um auf die Kamera zuzugreifen und Videos anzusehen, muss der Benutzer sie auf dem Gerät (Computer o.ä.) installieren mobile Geräte) spezielle Anwendung vom Entwickler der IP-Kamera. IN Diese Anwendung Der Benutzer gibt die Kamera-ID-Nummer ein (oder macht ein Foto des QR-Codes der Kamera, um den Code nicht manuell einzugeben). Anschließend kann er Videos von der Kamera online ansehen, das Videoarchiv von der SD-Karte anzeigen und die PTZ steuern Gerät und nutzen Sie andere Funktionen. Der Server fungiert in diesem Fall als Vermittler und verbindet die IP-Kamera direkt mit dem Gerät des Benutzers.

Warum wird P2P-Technologie benötigt?

Diese Technologie soll die Installation der IP-Kamera für den Endbenutzer so einfach wie möglich machen. Ohne diese Technologie muss der Benutzer für den Fernzugriff auf die Kamera eine statische IP-Adresse angeben oder über besondere Kenntnisse verfügen. Im Fall von P2P-Kameras regelmäßiger Benutzer Verbringt nicht mehr als 10 Minuten damit, die Kamera zu installieren und die Fernüberwachung einzurichten.

Anwendungsgebiete von P2P-Kameras

Mit P2P-Kameras erhalten Sie ein vollwertiges Videoüberwachungssystem Fernzugriff von überall auf der Welt und einfach für wenig Geld zu installieren. Die Haupteinsatzgebiete von P2P-Kameras:

  • Überwachung eines Landhauses und/oder Grundstücks
  • Überwachung der Wohnungssicherheit
  • Haustierüberwachung
  • Sicherheit für kleine Unternehmen und Überwachung von Verkaufsstellen
  • Patientenüberwachung
  • Verwendung in der Regierung und kommunale Institutionen usw

Unternehmen, die sich mit der Entwicklung und Produktion von P2P-Kameras befassen

Der weltweit führende Hersteller von P2P-Kameras ist Cisco.

Was bedeuten „5,0MP-Interpolation“ und „8,0MP-Interpolation“?

In der Beschreibung des DOOGEE X5 Smartphones habe ich einen interessanten und zugleich unklaren Punkt entdeckt:
Duale Kameras: 2,0 MP (5,0 MP Interpolation) Frontkamera; 5,0 MP (8,0 MP Interpolation) Rückfahrkamera mit Blitz und Autofokus.

Was bedeuten „5,0MP-Interpolation“ und „8,0MP-Interpolation“?
Wie viele Megapixel-Kameras gibt es wirklich – 2 und 5 Megapixel oder 5 und 8 Megapixel?

Lebende Kreatur

Es bedeutet „VERDAMMT“... sie geben beschissene Kameras als hochwertig aus... Eine 2-Megapixel-Kamera erzeugt programmgesteuert ein 5-Megapixel-Bild... sie versuchen, Ihnen eine Fälschung zu verkaufen... die Original-DVRs verwenden keine Interpolation. ..

Vladssto

Das bedeutet, dass die Kamera physisch eine echte Auflösung von beispielsweise 5 MP hat und das Smartphone über eine Software verfügt, die benachbarte Pixel auseinander bewegt und ein weiteres Pixel in Farbe zwischen ihnen hinzufügt, etwas zwischen den benachbarten, und die Ausgabe ist ein Foto mit einem Auflösung von 8MP.
Dies hat keinen wirklichen Einfluss auf die Qualität, Sie können lediglich in ein Foto mit höherer Auflösung hineinzoomen und die Details betrachten

Das Smartphone verfügt über eine 8-MPix-Kamera. Was bedeutet Interpolation bis 13 MPix?

Sergej 5

Bis zu 13 MPix – es könnten auch 8 echte MPix sein, wie bei Ihnen. Oder 5 echte MPix. Die Kamerasoftware interpoliert die Grafikausgabe der Kamera auf 13 MPixel, wobei das Bild nicht verbessert, sondern elektronisch vergrößert wird. Einfach gesagt, wie eine Lupe oder ein Fernglas. Die Qualität ändert sich nicht.

Das bedeutet, dass die Kamera ein Foto mit bis zu 8 MPIX aufnehmen kann, in der Software jedoch Fotos mit bis zu 12 MPIX vergrößern kann. Dies bedeutet, dass es programmgesteuert vergrößert wird, die Bildqualität jedoch nicht verbessert wird, das Bild wird immer noch genau 8 MPIX haben. Das ist ein reiner Trick des Herstellers und solche Smartphones sind teurer.

Verbraucher

Vereinfacht ausgedrückt fügt der Smart-Prozessor beim Erstellen eines Fotos seine eigenen Pixel zu den aktiven Pixeln der Matrix hinzu, als würde er das Bild berechnen und auf eine Größe von 13 Megapixeln zeichnen. Die Ausgabe ist eine Matrix aus 8 und a Foto mit einer Auflösung von 13 Megapixeln. Die Qualität verbessert sich dadurch nicht wesentlich.

Violett u

Die Kamerainterpolation ist ein Trick des Herstellers; sie treibt den Preis eines Smartphones künstlich in die Höhe.

Wenn Sie eine 8-MPIX-Kamera haben, kann diese ein entsprechendes Bild aufnehmen; die Interpolation verbessert nicht die Qualität des Fotos, sondern erhöht lediglich die Größe des Fotos auf 13 Megapixel.

Die UdSSR

Bei der Megapixel-Interpolation handelt es sich um eine Software-Unschärfe des Bildes. Echte Pixel werden auseinandergerückt und weitere dazwischen eingefügt, wobei die Farbe dem Mittelwert der auseinandergerückten Farben entspricht. Unsinn, Selbsttäuschung, die niemand braucht. Die Qualität verbessert sich nicht.

Mastermiha

An Chinesische Smartphones Dies wird jetzt ständig verwendet, nur dass ein 13-MP-Kamerasensor viel mehr kostet als ein 8-MP-Sensor, deshalb wird er auf 8 MP eingestellt, aber die Kameraanwendung streckt das resultierende Bild, wodurch die Qualität dieser 13-MP-Sensoren beeinträchtigt wird wird deutlich schlechter, wenn man sich die Originalauflösung anschaut.

Meiner Meinung nach nützt diese Funktion überhaupt nichts, da 8MP für ein Smartphone im Prinzip völlig ausreichen, mir reichen 3MP, Hauptsache die Kamera selbst ist hochwertig.

Azamatik

Guten Tag.

Das bedeutet, dass Ihr Smartphone ein mit einer 8-MPix-Kamera aufgenommenes Foto/Bild auf 13 MPix streckt. Und das geschieht durch das Auseinanderschieben der echten Pixel und das Einfügen weiterer.

Vergleicht man jedoch die Qualität eines Bildes/Fotos, das mit 13 MP und 8 MP mit Interpolation auf 13 aufgenommen wurde, dann wird die Qualität des zweiten Bildes deutlich schlechter sein.

Dublone

Das bedeutet, dass in Ihrer Kamera, da es 8 MPIX gab, diese gleich bleiben – nicht mehr und nicht weniger, und alles andere ist ein Marketingtrick, eine wissenschaftliche Täuschung der Leute, um das Produkt zu einem höheren Preis zu verkaufen und nichts mehr. Diese Funktion wertlos, die Qualität des Fotos geht bei der Interpolation verloren.

Moreljuba

Dieses Konzept geht davon aus, dass die Kamera Ihres Geräts immer noch Fotos mit 8 MPIX aufnimmt, aber jetzt ist es in der Software möglich, sie auf 13 MPIX zu erhöhen. Gleichzeitig wird die Qualität nicht besser. Es ist nur so, dass der Raum zwischen den Pixeln verstopft wird, das ist alles.

Gladius74

Interpolation ist eine Methode zur Ermittlung von Zwischenwerten

Wenn all dies in eine menschlichere Sprache übersetzt wird, die auf Ihre Frage anwendbar ist, erhalten Sie Folgendes:

  • Die Software kann Dateien bis zu 13 MPIX verarbeiten (vergrößern, strecken).

Marlena

Tatsache ist, dass die echte Kamera in solchen Telefonen 8 Megapixel hat. Mithilfe interner Programme werden die Bilder jedoch auf 13 Megapixel gestreckt. Tatsächlich erreicht es nicht die tatsächlichen 13 Megapixel.

Markt Mobiltelefone voller Modelle mit Kameras mit riesigen Auflösungen. Sie sind sogar relativ häufig preiswerte Smartphones mit Sensoren mit einer Auflösung von 16-20 Megapixeln. Ein unwissender Käufer ist auf der Suche nach einer „coolen“ Kamera und bevorzugt das Telefon mit einer höheren Kameraauflösung. Er merkt nicht einmal, dass er auf den Köder von Vermarktern und Verkäufern hereinfällt.

Was ist eine Erlaubnis?

Die Kameraauflösung ist ein Parameter, der die endgültige Größe des Bildes angibt. Es bestimmt lediglich, wie groß das resultierende Bild sein wird, also seine Breite und Höhe in Pixeln. Wichtig: Die Bildqualität ändert sich nicht. Das Foto ist möglicherweise von geringer Qualität, aber aufgrund der Auflösung groß.

Die Auflösung hat keinen Einfluss auf die Qualität. Es war unmöglich, dies im Zusammenhang mit der Interpolation von Smartphone-Kameras nicht zu erwähnen. Jetzt können Sie direkt zur Sache kommen.

Was ist Kamerainterpolation in einem Telefon?

Bei der Kamerainterpolation handelt es sich um eine künstliche Erhöhung der Bildauflösung. Es handelt sich um Bilder und nicht um eine spezielle Software, mit der ein Bild mit einer Auflösung von 8 Megapixeln auf 13 Megapixel oder mehr (oder weniger) interpoliert wird.

Wenn wir eine Analogie ziehen, ähnelt die Kamerainterpolation der eines Fernglases. Diese Geräte vergrößern das Bild, lassen es jedoch nicht besser oder detaillierter aussehen. Wenn also in den technischen Daten des Telefons eine Interpolation angegeben ist, ist die tatsächliche Kameraauflösung möglicherweise niedriger als angegeben. Es ist nicht gut oder schlecht, es ist einfach so.

Wofür ist das?

Die Interpolation wurde erfunden, um das Bild zu vergrößern, nicht mehr. Dies ist nun ein Trick von Vermarktern und Herstellern, die versuchen, ein Produkt zu verkaufen. Sie in großer Zahl Weisen Sie auf einem Werbeplakat auf die Auflösung der Handykamera hin und positionieren Sie diese als Vorteil oder etwas Gutes. Die Auflösung selbst hat nicht nur keinen Einfluss auf die Qualität der Fotos, sie kann auch interpoliert werden.

Vor buchstäblich 3-4 Jahren waren viele Hersteller auf der Suche nach der Anzahl der Megapixel und verschiedene Wege Ich habe versucht, sie mit so vielen Sensoren wie möglich in ihre Smartphone-Sensoren zu zwängen. So entstanden Smartphones mit Kameras mit einer Auflösung von 5, 8, 12, 15, 21 Megapixeln. Gleichzeitig konnten sie wie die billigsten Kompaktkameras fotografieren, aber als Käufer den Aufkleber „18-MP-Kamera“ sahen, wollten sie sofort ein solches Telefon kaufen. Mit dem Aufkommen der Interpolation ist es aufgrund der Möglichkeit, der Kamera künstlich Megapixel hinzuzufügen, einfacher geworden, solche Smartphones zu verkaufen. Natürlich begann sich die Fotoqualität mit der Zeit zu verbessern, aber sicherlich nicht aufgrund der Auflösung oder Interpolation, sondern aufgrund des natürlichen Fortschritts bei der Sensor- und Softwareentwicklung.

Technische Seite

Was ist Kamerainterpolation in einem Telefon technisch gesehen, da der gesamte Text oben nur die Grundidee beschreibt?

Mithilfe einer speziellen Software werden neue Pixel auf das Bild „gezeichnet“. Um beispielsweise ein Bild um das Zweifache zu vergrößern, wird nach jeder Pixelzeile im Bild eine neue Zeile hinzugefügt. Jedes Pixel in dieser neuen Zeile wird mit einer Farbe gefüllt. Die Füllfarbe wird durch einen speziellen Algorithmus berechnet. Der allererste Weg ist das Gießen Neue Zeile Farben, die die nächstgelegenen Pixel haben. Das Ergebnis einer solchen Verarbeitung wird schrecklich sein, aber diese Methode erfordert ein Minimum an Rechenoperationen.

Am häufigsten wird eine andere Methode verwendet. Das heißt, dem Originalbild werden neue Pixelreihen hinzugefügt. Jedes Pixel wird mit einer Farbe gefüllt, die wiederum als Durchschnitt benachbarter Pixel berechnet wird. Diese Methode liefert bessere Ergebnisse, erfordert jedoch mehr Rechenoperationen.

Zum Glück modern mobile Prozessoren sind schnell und in der Praxis merkt der Benutzer nicht, wie das Programm das Bild bearbeitet und versucht, es künstlich zu vergrößern.

Es gibt viele fortschrittliche Interpolationsmethoden und Algorithmen, die ständig verbessert werden: Die Grenzen des Übergangs zwischen Farben werden verbessert, die Linien werden genauer und klarer. Es spielt keine Rolle, wie all diese Algorithmen aufgebaut sind. Die Idee der Kamerainterpolation ist banal und wird sich in naher Zukunft wahrscheinlich nicht durchsetzen. Durch die Interpolation kann ein Bild nicht detaillierter gemacht, neue Details hinzugefügt oder auf andere Weise verbessert werden. Lediglich bei Filmen wird nach der Anwendung einiger Filter ein kleines unscharfes Bild deutlich. In der Praxis kann dies nicht passieren.

Benötigen Sie eine Interpolation?

Aus Unwissenheit stellen viele Benutzer in verschiedenen Foren Fragen zur Kamerainterpolation und glauben, dass dies die Bildqualität verbessern wird. Tatsächlich verbessert die Interpolation die Bildqualität nicht nur nicht, sondern kann sie sogar verschlechtern, da den Fotos neue Pixel hinzugefügt werden und das Foto aufgrund der nicht immer genauen Berechnung der Füllfarben möglicherweise undetailliert ist Flächen und Körnigkeit. Dadurch sinkt die Qualität.

Die Interpolation im Telefon ist also ein Marketingtrick, der völlig unnötig ist. Es kann nicht nur die Auflösung des Fotos erhöhen, sondern auch die Kosten für das Smartphone selbst. Fallen Sie nicht auf die Tricks der Verkäufer und Hersteller herein.

Sensoren sind Geräte, die nur Graustufen (Abstufungen der Lichtintensität – von ganz weiß bis ganz schwarz) erkennen. Damit die Kamera Farben unterscheiden kann, werden mithilfe eines Fotolithografieverfahrens eine Reihe von Farbfiltern auf das Silizium aufgebracht. Bei Sensoren, die Mikrolinsen verwenden, werden Filter zwischen den Linsen und dem Fotodetektor platziert. Bei Scannern, die trilineare CCDs verwenden (drei nebeneinander angeordnete CCDs, die jeweils auf die Farben Rot, Blau und Grün reagieren) oder bei High-End-Digitalkameras, die ebenfalls drei Sensoren verwenden, filtert jeder Sensor eine andere Lichtfarbe. (Beachten Sie, dass einige Multisensorkameras Kombinationen mehrerer Filterfarben anstelle der standardmäßigen drei verwenden.) Bei Geräten mit nur einem Sensor, wie den meisten Digitalkameras für Endverbraucher, werden jedoch Farbfilterarrays (CFA) zur Verarbeitung der verschiedenen Farben verwendet.

Damit jedes Pixel seine eigene Grundfarbe hat, wird darüber ein Filter der entsprechenden Farbe platziert. Bevor Photonen ein Pixel erreichen, passieren sie zunächst einen Filter, der nur Wellen seiner eigenen Farbe durchlässt. Licht unterschiedlicher Länge wird einfach vom Filter absorbiert. Wissenschaftler haben festgestellt, dass jede Farbe im Spektrum durch Mischen nur weniger Primärfarben erhalten werden kann. Im RGB-Modell gibt es drei solcher Farben.

Für jede Anwendung werden eigene Arrays von Farbfiltern entwickelt. Aber in den meisten Digitalkamerasensoren sind die Bayer-Musterfilter die beliebtesten Filterarrays. Diese Technologie wurde in den 70er Jahren von Kodak erfunden, als sie an der räumlichen Trennung forschten. Bei diesem System sind die Filter schachbrettartig verstreut angeordnet und die Anzahl der Grünfilter ist doppelt so groß wie die der Rot- oder Blaufilter. Die Anordnung ist so getroffen, dass die Rot- und Blaufilter zwischen den Grünfiltern liegen.

Dieses Mengenverhältnis erklärt sich aus der Struktur des menschlichen Auges – es reagiert empfindlicher auf grünes Licht. Und das Schachbrettmuster sorgt dafür, dass die Bilder immer die gleiche Farbe haben, egal wie Sie die Kamera halten (vertikal oder horizontal). Beim Lesen von Informationen von einem solchen Sensor werden Farben nacheinander in Zeilen geschrieben. Die erste Zeile sollte BGBGBG sein, die nächste Zeile sollte GRGRGR usw. sein. Diese Technologie wird als sequentielles RGB bezeichnet.

Bei CCD-Kameras werden alle drei Signale nicht auf dem Sensor, sondern im Bilderzeugungsgerät kombiniert, nachdem das Signal von analog in digital umgewandelt wurde. Bei CMOS-Sensoren kann diese Ausrichtung direkt auf dem Chip erfolgen. In beiden Fällen werden die Primärfarben jedes Filters mathematisch auf der Grundlage der Farben benachbarter Filter interpoliert. Beachten Sie, dass in jedem Bild die meisten Punkte Mischungen der Primärfarben sind und nur wenige tatsächlich reines Rot, Blau oder Grün darstellen.

Um beispielsweise den Einfluss benachbarter Pixel auf die Farbe des zentralen Pixels zu bestimmen, wird bei der linearen Interpolation eine 3x3-Pixelmatrix verarbeitet. Nehmen wir zum Beispiel den einfachsten Fall – drei Pixel – mit Blau-, Rot- und Blaufiltern, angeordnet in einer Zeile (BRB). Nehmen wir an, Sie versuchen, den resultierenden Farbwert eines roten Pixels zu ermitteln. Wenn alle Farben gleich sind, wird die Farbe des zentralen Pixels mathematisch aus zwei Teilen Blau und einem Teil Rot berechnet. Tatsächlich sind sogar einfache lineare Interpolationsalgorithmen viel komplexer; sie berücksichtigen die Werte aller umgebenden Pixel. Wenn die Interpolation schlecht ist, treten an den Farbänderungsgrenzen gezackte Kanten auf (oder es treten Farbartefakte auf).

Beachten Sie, dass das Wort „Auflösung“ im Bereich der digitalen Grafik falsch verwendet wird. Puristen (oder Pedanten, was auch immer Sie bevorzugen), die mit Fotografie und Optik vertraut sind, wissen, dass die Auflösung ein Maß für die Fähigkeit des menschlichen Auges oder Instruments ist, einzelne Linien in einem Auflösungsraster zu unterscheiden, wie zum Beispiel dem unten gezeigten ISO-Raster. In der Computerbranche ist es jedoch üblich, die Anzahl der Pixel zu benennen, und da dies der Fall ist, werden wir uns auch an diese Konvention halten. Schließlich bezeichnen selbst Entwickler die Auflösung als die Anzahl der Pixel im Sensor.


Lass uns rechnen?

Die Größe der Bilddatei hängt von der Anzahl der Pixel (Auflösung) ab. Je mehr Pixel, desto mehr Datei. Beispielsweise nimmt ein Bild von VGA-Standardsensoren (640 x 480 oder 307.200 aktive Pixel) in unkomprimierter Form etwa 900 Kilobyte ein. (307200 Pixel mit 3 Bytes (R-G-B) = 921600 Bytes, was etwa 900 Kilobytes entspricht) Ein Bild von einem 16-MP-Sensor nimmt etwa 48 Megabytes ein.

Es scheint, dass es keine Möglichkeit gibt, die Anzahl der Pixel im Sensor zu zählen, um die Größe des resultierenden Bildes zu bestimmen. Kamerahersteller präsentieren jedoch eine Reihe unterschiedlicher Zahlen und behaupten jedes Mal, dass dies die tatsächliche Auflösung der Kamera sei.

Die Gesamtzahl der Pixel umfasst alle Pixel, die physisch im Sensor vorhanden sind. Als aktiv gelten aber nur diejenigen, die sich an der Bildgewinnung beteiligen. Etwa fünf Prozent aller Pixel tragen nicht zum Bild bei. Es ist entweder defekte Pixel oder Pixel, die von der Kamera für einen anderen Zweck verwendet werden. Beispielsweise kann es Masken zur Bestimmung des Dunkelstrompegels oder zur Bestimmung des Rahmenformats geben.

Das Rahmenformat ist das Verhältnis zwischen der Breite und Höhe des Sensors. Bei einigen Sensoren, beispielsweise bei einer Auflösung von 640 x 480, beträgt dieses Verhältnis 1,34:1, was dem Rahmenformat der meisten Computermonitore entspricht. Dies bedeutet, dass die von solchen Sensoren erstellten Bilder ohne vorheriges Zuschneiden genau auf den Bildschirm passen. Bei vielen Geräten entspricht das Bildformat dem Format herkömmlicher 35-mm-Filme, wobei das Verhältnis 1:1,5 beträgt. Dadurch können Sie Bilder in Standardgröße und -form aufnehmen.


Auflösungsinterpolation

Außer optische Auflösung(die tatsächliche Fähigkeit von Pixeln, auf Photonen zu reagieren), gibt es auch eine Auflösung, die durch Software und Hardware mithilfe von Interpolationsalgorithmen erhöht wird. Wie die Farbinterpolation analysiert auch die Auflösungsinterpolation Daten benachbarter Pixel mathematisch. In diesem Fall entstehen durch Interpolation Zwischenwerte. Diese „Implementierung“ neuer Daten kann recht reibungslos erfolgen, wobei die interpolierten Daten irgendwo zwischen den tatsächlichen optischen Daten liegen. Manchmal können jedoch während einer solchen Operation verschiedene Interferenzen, Artefakte und Verzerrungen auftreten, wodurch sich die Bildqualität nur verschlechtert. Daher glauben viele Pessimisten, dass die Auflösungsinterpolation überhaupt keine Möglichkeit ist, die Bildqualität zu verbessern, sondern lediglich eine Methode zur Vergrößerung von Dateien. Achten Sie bei der Geräteauswahl darauf, welche Auflösung angegeben ist. Lassen Sie sich von der hohen interpolierten Auflösung nicht zu sehr begeistern. (Es ist als interpoliert oder erweitert gekennzeichnet).

Ein weiterer Bildverarbeitungsprozess auf Softwareebene ist die Unterabtastung. Im Wesentlichen handelt es sich um den umgekehrten Prozess der Interpolation. Dieser Vorgang wird in der Bildverarbeitungsphase durchgeführt, nachdem die Daten von analog umgewandelt wurden digitale Ansicht. Dadurch werden Daten von verschiedenen Pixeln entfernt. Bei CMOS-Sensoren kann dieser Vorgang auf dem Chip selbst durchgeführt werden, indem das Lesen bestimmter Pixelzeilen vorübergehend deaktiviert wird oder indem nur Daten von ausgewählten Pixeln gelesen werden.

Downsampling erfüllt zwei Funktionen. Erstens zur Datenkomprimierung – um mehr Schnappschüsse einer bestimmten Größe im Speicher zu speichern. Je geringer die Pixelzahl, desto kleiner die Dateigröße und desto mehr Bilder passen auf eine Speicherkarte oder in den Speicher. interner Speicher Geräte und desto seltener müssen Sie Fotos auf Ihren Computer herunterladen oder Speicherkarten wechseln.

Die zweite Funktion dieses Prozesses besteht darin, Bilder einer bestimmten Größe für bestimmte Zwecke zu erstellen. Kameras mit einem 2MP-Sensor sind durchaus in der Lage, ein Foto aufzunehmen Standardfotografie misst 8x10 Zoll. Wenn Sie jedoch versuchen, ein solches Foto per Post zu versenden, wird der Brief merklich größer. Durch die Unterabtastung können Sie ein Bild so verarbeiten, dass es auf den Monitoren Ihrer Freunde normal aussieht (wenn Sie nicht auf Details achten) und es gleichzeitig auch auf Computern mit langsamer Verbindung schnell genug senden.

Nachdem wir nun mit den Prinzipien der Sensorfunktion vertraut sind und wissen, wie ein Bild entsteht, wollen wir etwas tiefer blicken und auf komplexere Situationen eingehen, die in der digitalen Fotografie auftreten.

Bei allen digitalen Fotos kommt es irgendwann zu einer Bildinterpolation, sei es durch Dematrixierung oder Skalierung. Es tritt immer dann auf, wenn Sie die Größe oder den Scan eines Bildes von einem Pixelraster zu einem anderen ändern. Eine Größenänderung eines Bildes ist erforderlich, wenn Sie die Anzahl der Pixel erhöhen oder verringern müssen, während es in den meisten Fällen zu einer Änderung der Position kommen kann verschiedene Fälle: Linsenverzerrung korrigieren, Perspektive ändern oder Bild drehen.


Auch wenn die Größe desselben Bildes geändert oder gescannt wird, können die Ergebnisse je nach Interpolationsalgorithmus erheblich variieren. Da es sich bei jeder Interpolation nur um eine Annäherung handelt, verliert das Bild bei jeder Interpolation etwas an Qualität. Ziel dieses Kapitels ist es, ein besseres Verständnis darüber zu vermitteln, welche Auswirkungen die Ergebnisse haben – und Ihnen so dabei zu helfen, durch Interpolation verursachte Bildqualitätsverluste zu minimieren.

Konzept

Der Kern der Interpolation besteht darin, verfügbare Daten zu verwenden, um erwartete Werte an unbekannten Punkten zu erhalten. Wenn Sie zum Beispiel wissen wollten, wie hoch die Temperatur mittags war, diese aber um 11 Uhr und um ein Uhr gemessen haben, können Sie den Wert mithilfe einer linearen Interpolation erraten:

Wenn Sie um halb eins eine zusätzliche Messung durchführen würden, könnten Sie feststellen, dass die Temperatur vor Mittag schneller ansteigt, und diese zusätzliche Messung verwenden, um eine quadratische Interpolation durchzuführen:

Je mehr Temperaturmessungen Sie gegen Mittag durchführen, desto komplexer (und voraussichtlich genauer) kann Ihr Interpolationsalgorithmus sein.

Beispiel für die Größenänderung eines Bildes

Die Bildinterpolation funktioniert in zwei Dimensionen und versucht, basierend auf den Werten der umgebenden Pixel die beste Annäherung an Pixelfarbe und -helligkeit zu erreichen. Das folgende Beispiel veranschaulicht, wie die Skalierung funktioniert:

planare Interpolation
Original Vor nach ohne Interpolation

Im Gegensatz zu Schwankungen der Lufttemperatur und dem oben genannten idealen Gradienten können sich Pixelwerte von Punkt zu Punkt viel dramatischer ändern. Wie beim Temperaturbeispiel funktioniert die Interpolation umso besser, je mehr Sie über die umgebenden Pixel wissen. Aus diesem Grund verschlechtern sich die Ergebnisse schnell, wenn das Bild gestreckt wird, und auch aus diesem Grund kann die Interpolation niemals Details zu einem Bild hinzufügen, das nicht vorhanden ist.

Beispiel für die Bilddrehung

Die Interpolation erfolgt auch jedes Mal, wenn Sie ein Bild drehen oder die Perspektive ändern. Das vorherige Beispiel war irreführend, da es sich um einen Sonderfall handelt, bei dem Interpolatoren normalerweise recht gut funktionieren. Das folgende Beispiel zeigt, wie schnell Details in einem Bild verloren gehen können:

Bildverschlechterung
Original 45° drehen um 90° drehen
(kein Verlust)
2 45°-Drehungen 6 Drehungen bei 15°

Eine 90°-Drehung verursacht keinen Verlust, da kein Pixel auf der Grenze zwischen zwei platziert (und daher geteilt) werden muss. Beachten Sie, wie viel Detail bei der ersten Drehung verloren geht und wie die Qualität bei den folgenden Drehungen immer weiter abnimmt. Das bedeutet, dass Sie es tun sollten Vermeiden Sie Rotation so weit wie möglich; Wenn ein ungleichmäßig belichteter Rahmen gedreht werden muss, sollten Sie ihn nicht mehr als einmal drehen.

Die oben genannten Ergebnisse verwenden den sogenannten „bikubischen“ Algorithmus und zeigen eine deutliche Verschlechterung der Qualität. Beachten Sie, wie der Gesamtkontrast aufgrund der abnehmenden Farbintensität abnimmt und wie dunkle Lichthöfe um das Hellblau herum erscheinen. Abhängig vom Interpolationsalgorithmus und dem abgebildeten Motiv können die Ergebnisse deutlich besser ausfallen.

Arten von Interpolationsalgorithmen

Gängige Interpolationsalgorithmen können in zwei Kategorien unterteilt werden: adaptive und nicht adaptive. Adaptive Methoden variieren je nach Interpolationsgegenstand (harte Kanten, glatte Textur), während nicht-adaptive Methoden alle Pixel gleich behandeln.

Nicht adaptive Algorithmen Dazu gehören: Methode des nächsten Nachbarn, bilinear, bikubisch, Splines, Kardinalsinusfunktion (sinc), Lanczos-Methode und andere. Je nach Komplexität verwenden sie 0 bis 256 (oder mehr) zusammenhängende Pixel für die Interpolation. Je mehr benachbarte Pixel sie umfassen, desto genauer können sie sein, allerdings geht dies mit einer erheblichen Verlängerung der Verarbeitungszeit einher. Diese Algorithmen können sowohl zum Scannen als auch zum Skalieren von Bildern verwendet werden.

Adaptive Algorithmen Integrieren Sie viele kommerzielle Algorithmen in lizenzierte Programme wie Qimage, PhotoZoom Pro, Genuine Fractals und andere. Viele von ihnen verwenden verschiedene Versionen seine Algorithmen (basierend auf einer Pixel-für-Pixel-Analyse), wenn das Vorhandensein einer Grenze erkannt wird – um unschöne Interpolationsfehler an Stellen zu minimieren, an denen sie am sichtbarsten sind. Diese Algorithmen sind in erster Linie darauf ausgelegt, die fehlerfreien Details vergrößerter Bilder zu maximieren, sodass einige von ihnen nicht zum Drehen oder Ändern der Perspektive eines Bildes geeignet sind.

Methode des nächsten Nachbarn

Dies ist der grundlegendste aller Interpolationsalgorithmen und erfordert die geringste Verarbeitungszeit, da er nur ein Pixel berücksichtigt – dasjenige, das dem Interpolationspunkt am nächsten liegt. Dadurch wird jedes Pixel einfach größer.

Bilineare Interpolation

Bei der bilinearen Interpolation wird ein 2x2-Quadrat bekannter Pixel berücksichtigt, das ein unbekanntes umgibt. Als interpolierter Wert wird der gewichtete Durchschnitt dieser vier Pixel verwendet. Das Ergebnis sind Bilder, die deutlich glatter aussehen als das Ergebnis der Nearest-Neighbor-Methode.

Das Diagramm links gilt für den Fall, dass alle bekannten Pixel gleich sind, sodass der interpolierte Wert einfach ihre Summe dividiert durch 4 ist.

Bikubische Interpolation

Die bikubische Interpolation geht einen Schritt weiter als die bilineare Interpolation und betrachtet ein Array von 4x4 umgebenden Pixeln – insgesamt 16. Da sie sich in unterschiedlichen Abständen vom unbekannten Pixel befinden, erhalten benachbarte Pixel bei der Berechnung mehr Gewicht. Die bikubische Interpolation erzeugt deutlich schärfere Bilder als die beiden vorherigen Methoden und ist hinsichtlich Verarbeitungszeit und Ausgabequalität wohl die beste. Aus diesem Grund ist es in vielen Bildbearbeitungsprogrammen (u. a.) zum Standard geworden Adobe Photoshop), Druckertreiber und integrierte Kamerainterpolation.

Interpolation höherer Ordnung: Splines und Sinc

Es gibt viele andere Interpolatoren, die mehr umliegende Pixel berücksichtigen und daher rechenintensiver sind. Diese Algorithmen umfassen Splines und Kardinalsinus (Sinc) und behalten nach der Interpolation den Großteil der Bildinformationen bei. Daher sind sie äußerst nützlich, wenn ein Bild mehrere Drehungen oder Perspektivwechsel in separaten Schritten erfordert. Bei einzelnen Zooms oder Drehungen bieten solche Algorithmen höherer Ordnung jedoch kaum eine visuelle Verbesserung bei einem deutlichen Anstieg der Verarbeitungszeit. Darüber hinaus schneidet der Kardinalsinus-Algorithmus in manchen Fällen auf einem glatten Abschnitt schlechter ab als die bikubische Interpolation.

Beobachtbare Interpolationsfehler

Alle nicht adaptiven Interpolatoren versuchen, das optimale Gleichgewicht zwischen drei unerwünschten Fehlern zu finden: Grenzhalos, Unschärfe und Aliasing.

Selbst die am weitesten entwickelten nicht-adaptiven Interpolatoren sind immer gezwungen, einen der oben genannten Fehler auf Kosten der anderen beiden zu vergrößern oder zu verringern – als Ergebnis wird mindestens einer von ihnen spürbar sein. Beachten Sie, dass der Kantenhof dem durch das Schärfen mit einer unscharfen Maske verursachten Defekt ähnelt und wie er durch das Schärfen die scheinbare Schärfe erhöht.

Adaptive Interpolatoren können die oben beschriebenen Fehler verursachen oder auch nicht, sie können jedoch auch Texturen oder einzelne Pixel in großen Maßstäben erzeugen, die für das Originalbild ungewöhnlich sind:

Andererseits können einige „Mängel“ adaptiver Interpolatoren auch als Vorteile angesehen werden. Da das Auge erwartet, in fein strukturierten Bereichen wie Blattwerk Details bis ins kleinste Detail zu erkennen, können solche Designs das Auge aus der Ferne täuschen (bei bestimmten Materialarten).

Glätten

Anti-Aliasing oder Anti-Aliasing ist ein Prozess, der versucht, das Auftreten von gezackten oder gezackten diagonalen Rändern zu minimieren, die Text oder Bildern ein raues digitales Aussehen verleihen:


300%

Anti-Aliasing entfernt diese Zacken und sorgt für weichere Kanten und eine höhere Auflösung. Dabei wird berücksichtigt, wie weit der ideale Rand benachbarte Pixel überlappt. Ein gezackter Rand wird einfach nach oben oder unten gerundet, ohne dass ein Wert dazwischen liegt, während ein glatter Rand einen Wert erzeugt, der proportional dazu ist, wie viel vom Rand in jedem Pixel enthalten ist:

Eine wichtige Überlegung beim Vergrößern von Bildern besteht darin, übermäßiges Aliasing aufgrund der Interpolation zu vermeiden. Viele adaptive Interpolatoren erkennen das Vorhandensein von Kanten und passen sie an, um Aliasing zu minimieren und gleichzeitig die Kantenschärfe beizubehalten. Da eine geglättete Grenze Informationen über ihre Position in einer höheren Auflösung enthält, ist es möglich, dass ein leistungsstarker adaptiver (Kantenerkennungs-)Interpolator die Grenze beim Vergrößern zumindest teilweise rekonstruieren könnte.

Optischer und digitaler Zoom

Viele kompakte Digitalkameras bieten sowohl optischen als auch digitalen Zoom. Der optische Zoom wird durch Bewegen der Vari-Linse erreicht, sodass das Licht verstärkt wird, bevor es auf den digitalen Sensor trifft. Im Gegensatz dazu verringert der Digitalzoom die Qualität, da er das Bild einfach interpoliert, nachdem es vom Sensor empfangen wurde.


optischer Zoom (10x) Digitalzoom (10x)

Obwohl ein Foto mit digitalem Zoom die gleiche Anzahl an Pixeln enthält, ist die Detailgenauigkeit deutlich geringer als bei Verwendung des optischen Zooms. Der Digitalzoom soll fast vollständig eliminiert werden, abzüglich der Zeiten, in denen es hilft, ein entferntes Objekt auf dem LCD-Bildschirm Ihrer Kamera anzuzeigen. Wenn Sie hingegen normalerweise im JPEG-Format fotografieren und Ihr Bild später zuschneiden und vergrößern möchten, hat der Digitalzoom den Vorteil, dass er interpoliert, bevor Komprimierungsartefakte entstehen. Wenn Sie feststellen, dass Sie den Digitalzoom zu oft benötigen, investieren Sie in einen Telekonverter oder, noch besser, in ein Objektiv mit längerer Brennweite.

Eine eingebaute Kamera ist bei der Auswahl eines Smartphones nicht das Letzte. Dieser Parameter ist für viele wichtig, daher achten viele bei der Suche nach einem neuen Smartphone darauf, wie viele Megapixel in der Kamera angegeben sind. Gleichzeitig wissen sachkundige Menschen, dass es nicht ihre Schuld ist. Schauen wir uns also an, worauf Sie bei der Auswahl eines Smartphones mit einer guten Kamera achten müssen.

Wie ein Smartphone aufnimmt, hängt davon ab, welches Kameramodul darin installiert ist. Es sieht aus wie auf dem Foto (die Front- und Hauptkameramodule sehen ungefähr gleich aus). Es lässt sich einfach in der Smartphone-Hülle unterbringen und wird in der Regel mit einem Kabel befestigt. Diese Methode erleichtert den Austausch, wenn es kaputt geht.

Sony hat ein Monopol auf dem Markt. In Smartphones kommen überwiegend die Kameras zum Einsatz. Auch OmniVision und Samsung sind an der Produktion beteiligt.

Wichtig ist der Smartphone-Hersteller selbst. In Wirklichkeit hängt viel von der Marke ab und ein Unternehmen mit Selbstachtung wird sein Gerät mit einer wirklich guten Kamera ausstatten. Aber lassen Sie uns Punkt für Punkt herausfinden, was die Qualität der Smartphone-Fotografie bestimmt.

CPU

Bist du überrascht? Es ist der Prozessor, der mit der Verarbeitung des Bildes beginnt, wenn er Daten von der Fotomatrix empfängt. Egal wie hochwertig die Matrix ist, ein schwacher Prozessor ist nicht in der Lage, die von ihr empfangenen Informationen zu verarbeiten und umzuwandeln. Dies gilt nicht nur für die Aufnahme von Videos in hoher Auflösung und schnellen Bildern pro Sekunde, sondern auch für die Erstellung hochauflösender Bilder.

Je mehr Bilder pro Sekunde sich ändern, desto mehr Belastung pro Prozessor.

Unter Leuten, die sich mit Telefonen auskennen oder denken, dass sie es verstehen, gibt es die Meinung, dass Smartphones mit amerikanischen Qualcomm-Prozessoren bessere Bilder machen als Smartphones mit taiwanesischen MediaTek-Prozessoren. Ich werde dies weder widerlegen noch bestätigen. Nun, die Tatsache, dass es seit 2016 keine Smartphones mit hervorragenden Kameras auf leistungsschwachen chinesischen Spreadtrum-Prozessoren gibt, ist bereits eine Tatsache.

Anzahl der Megapixel

Das Bild besteht aus Pixeln (Punkten), die während der Aufnahme von einer Fotomatrix gebildet werden. Je mehr Pixel, desto besser ist natürlich die Qualität des Bildes und desto höher ist seine Klarheit. Bei Kameras wird dieser Parameter in Megapixeln angegeben.

Megapixel (Mp, Mpx, Mpix) – ein Indikator für die Auflösung von Fotos und Videos (Anzahl der Pixel). Ein Megapixel entspricht einer Million Pixel.

Nehmen wir zum Beispiel das Smartphone Fly IQ4516 Tornado Slim. Es nimmt Fotos mit einer maximalen Auflösung von 3264x2448 Pixeln (3264 Farbpunkte in der Breite und 2448 in der Höhe) auf. 3264 Pixel multipliziert mit 2448 Pixel ergeben 7.990.272 Pixel. Da die Zahl groß ist, wird sie in Mega umgewandelt. Das heißt, die Zahl 7.990.272 Pixel beträgt ungefähr 8 Millionen Pixel, also 8 Megapixel.

Theoretisch bedeuten mehr Quietschgeräusche ein klareres Foto. Aber vergessen Sie nicht den Lärm, die Verschlechterung der Aufnahme bei schlechten Lichtverhältnissen usw.

Interpolation

Leider verachten viele chinesische Smartphone-Hersteller Software zur Erhöhung der Auflösung nicht. Dies nennt man Interpolation. Dabei kann die Kamera ein Foto mit einer maximalen Auflösung von 8 Megapixeln aufnehmen, per Software wird diese auf 13 Megapixel erhöht. Die Qualität verbessert sich dadurch natürlich nicht. Wie kann man sich in diesem Fall nicht täuschen lassen? Suchen Sie im Internet nach Informationen darüber, welches Kameramodul in Ihrem Smartphone verwendet wird. Die Eigenschaften des Moduls geben an, in welcher Auflösung es aufnimmt. Wenn Sie keine Informationen zum Modul gefunden haben, besteht bereits Grund zur Vorsicht. Manchmal deuten die Eigenschaften eines Smartphones durchaus darauf hin, dass die Kamera beispielsweise von 13 MP auf 16 MP interpoliert wurde.

Software

Unterschätzen Sie nicht die Software, die digitale Bilder verarbeitet und sie uns in der endgültigen Form präsentiert, die wir auf dem Bildschirm sehen. Es bestimmt die Farbwiedergabe, eliminiert Rauschen, sorgt für Bildstabilisierung (wenn das Smartphone in Ihrer Hand beim Fotografieren zuckt) usw. Ganz zu schweigen von den verschiedenen Aufnahmemodi.

Kameramatrix

Wichtig sind die Art der Matrix (CCD oder CMOS) und ihre Größe. Sie erfasst das Bild und überträgt es zur Verarbeitung an den Prozessor. Die Kameraauflösung hängt von der Matrix ab.

Blende (Blende)

Bei der Auswahl eines Smartphones mit einer guten Kamera sollten Sie auf diesen Parameter achten. Grob gesagt gibt er an, wie viel Licht die Matrix durch die Optik des Moduls erhält. Je mehr desto besser. Weniger eingestellt – mehr Lärm. Die Blende wird durch den Buchstaben F gefolgt von einem Schrägstrich (/) gekennzeichnet. Nach dem Schrägstrich wird der Blendenwert angezeigt, je kleiner dieser ist, desto besser. Als Beispiel wird es wie folgt angegeben: F/2,2, F/1,9. Oft angegeben in technische Spezifikationen Smartphone.

Eine Kamera mit einer Blende von F/1,9 fotografiert bei schlechten Lichtverhältnissen besser als eine Kamera mit einer Blende von F/2,2, da dadurch mehr Licht den Sensor erreichen kann. Aber auch die Stabilisierung ist wichtig, sowohl softwaremäßig als auch optisch.

Optische Stabilisierung

Smartphones sind selten mit einer optischen Stabilisierung ausgestattet. In der Regel handelt es sich dabei um teure Geräte mit einer fortschrittlichen Kamera. Ein solches Gerät kann als Kamerahandy bezeichnet werden.

Die Aufnahme mit dem Smartphone erfolgt mit bewegter Hand und eine optische Stabilisierung verhindert, dass das Bild unscharf wird. Möglicherweise gibt es auch eine Hybridstabilisierung (Software + optisch). Die optische Stabilisierung ist besonders wichtig bei langen Verschlusszeiten, wenn aufgrund unzureichender Beleuchtung in einem speziellen Modus ein Foto für 1-3 Sekunden aufgenommen werden kann.

Blitz

Der Blitz kann LED oder Xenon sein. Letzteres wird viel bringen die besten Fotos in Abwesenheit von Licht. Es gibt einen Dual-LED-Blitz. Selten, aber es kann zwei geben: LED und Xenon. Das ist das meiste Die beste Option. Implementiert im Kamerahandy Samsung M8910 Pixon12.

Wie Sie sehen, hängt die Art und Weise, wie ein Smartphone schießt, von vielen Parametern ab. Bei der Auswahl sollten Sie daher bei den Eigenschaften auf den Namen des Moduls, die Blende und das Vorhandensein einer optischen Stabilisierung achten. Suchen Sie am besten im Internet nach Testberichten zu einem bestimmten Telefon. Dort finden Sie Beispielbilder sowie die Meinung des Autors zur Kamera.



Wird geladen...
Spitze