¿Qué significa la interpolación de la cámara del teléfono inteligente? Interpolación de cámara, ¿por qué y qué es? La interpolación es un método para encontrar valores intermedios.

El teléfono inteligente tiene una cámara de 8 MPix. ¿Qué significa interpolación hasta 13 MPix?

    Buen día.

    Esto significa que su teléfono inteligente amplía una foto/imagen tomada con una cámara de 8 MPix a 13 MPix. Y esto se hace separando los píxeles reales e insertando otros adicionales.

    Pero si comparamos la calidad de una imagen/foto tomada a 13 MP y 8 MP con interpolación a 13, la calidad de la segunda será notablemente peor.

    En pocas palabras, al crear una fotografía, el procesador inteligente agrega sus propios píxeles a los píxeles activos de la matriz, como si calculara la imagen y la dibujara a un tamaño de 13 megapíxeles. El resultado es una matriz de 8 y un Foto con una resolución de 13 megapíxeles, la calidad no mejora mucho.

    Esto significa que la cámara puede tomar una foto de hasta 8 MPIX, pero en el software puede ampliar fotos de hasta 12 MPIX. Esto significa que lo amplía mediante programación, pero la imagen no mejora la calidad, la imagen seguirá siendo exactamente de 8 MPIX. Esto es puramente un truco del fabricante y estos teléfonos inteligentes son más caros.

    Este concepto supone que la cámara de su dispositivo seguirá tomando fotografías a 8 MPIX, pero ahora en el software es posible aumentarla a 13 MPIX. Al mismo tiempo, la calidad no mejora. Lo que pasa es que el espacio entre los píxeles se obstruye, eso es todo.

    Esto significa que en tu cámara, como había 8 MPIX, siguen siendo las mismas, ni más ni menos, y todo lo demás es una estrategia de marketing, un engaño científico de la gente para vender el producto a un precio más alto y nada. más. Esta función es inútil, durante la interpolación se pierde la calidad de la foto.

    En teléfonos inteligentes chinos Esto ahora se usa todo el tiempo, solo que un sensor de cámara de 13MP cuesta mucho más que uno de 8MP, por eso lo configuraron en 8MP, pero la aplicación de la cámara estira la imagen resultante, como resultado, la calidad de estos de 13MP Será notablemente peor si nos fijamos en la resolución original.

    En mi opinión, esta función no sirve de nada, ya que 8MP es suficiente para un teléfono inteligente, en principio, 3MP me basta, lo principal es que la cámara en sí es de alta calidad.

    La interpolación de cámaras es un truco del fabricante: infla artificialmente el precio de un teléfono inteligente.

    Si tiene una cámara de 8 MPIX, entonces puede tomar la fotografía correspondiente; la interpolación no mejora la calidad de la foto, simplemente aumenta el tamaño de la foto a 13 megapíxeles.

    El hecho es que la cámara real de estos teléfonos es de 8 megapíxeles. Pero con la ayuda de programas internos, las imágenes se amplían a 13 megapíxeles. De hecho, no llega a los 13 megapíxeles reales.

    La interpolación de megapíxeles es un software que desenfoca la imagen. Los píxeles reales se separan y se insertan otros adicionales entre ellos, con el color del valor promedio de los colores separados. Tonterías, autoengaños que nadie necesita. La calidad no mejora.

  • La interpolación es un método para encontrar valores intermedios.

    Si todo esto se traduce a un lenguaje más humano, aplicable a tu pregunta, obtienes lo siguiente:

    • El software puede procesar (ampliar, estirar)) archivos de hasta 13 MPIX.
  • Hasta 13 MPix: podrían ser 8 MPix reales, como el tuyo. O 5 MPix reales. El software de la cámara interpola la salida de gráficos de la cámara a 13 MPix, sin mejorar la imagen sino ampliándola electrónicamente. En pocas palabras, como una lupa o unos binoculares. La calidad no cambia.

Una cámara integrada no es lo último a la hora de elegir un smartphone. Este parámetro es importante para muchos, por eso, cuando buscan un nuevo teléfono inteligente, muchos prestan atención a cuántos megapíxeles tiene la cámara. Al mismo tiempo, las personas informadas saben que no es culpa suya. Entonces, veamos qué debe buscar al elegir un teléfono inteligente con una buena cámara.

La forma en que disparará un teléfono inteligente depende del módulo de cámara que esté instalado en él. Se ve como en la foto (los módulos de la cámara frontal y principal se ven aproximadamente iguales). Se coloca fácilmente en la funda del smartphone y, por regla general, se fija con un cable. Este método facilita su reemplazo si se rompe.

Sony tiene el monopolio del mercado. Son sus cámaras, en su mayoría, las que se utilizan en los smartphones. OmniVision y Samsung también participan en la producción.

El propio fabricante del smartphone es importante. En realidad, mucho depende de la marca y una empresa que se precie equipará su dispositivo con una cámara realmente buena. Pero averigüemos punto por punto qué determina la calidad de la fotografía de un teléfono inteligente.

UPC

¿Estás sorprendido? Es el procesador el que comenzará a procesar la imagen cuando reciba datos de la matriz fotográfica. No importa cuán alta sea la calidad de la matriz, un procesador débil no podrá procesar ni transformar la información que recibe de ella. Esto se aplica no sólo a la grabación de vídeo en alta resolución y cuadros rápidos por segundo, sino también a la creación de imágenes de alta resolución.

Por supuesto, cuantos más cuadros por segundo cambien, mayor será la carga en el procesador.

Entre las personas que entienden de teléfonos, o que creen saberlo, existe la opinión de que los teléfonos inteligentes con procesadores Qualcomm estadounidenses toman mejores fotografías que los teléfonos inteligentes con procesadores MediaTek taiwaneses. No refutaré ni confirmaré esto. Bueno, el hecho de que no haya teléfonos inteligentes con excelentes cámaras con procesadores chinos Spreadtrum de bajo rendimiento, a partir de 2016, ya es un hecho.

Número de megapíxeles

La imagen consta de píxeles (puntos) que se forman mediante una fotomatriz durante la toma. Por supuesto, cuantos más píxeles, mejor será la calidad de la imagen y mayor será su claridad. En las cámaras, este parámetro se indica en megapíxeles.

Megapíxeles (Mp, Mpx, Mpix): un indicador de la resolución de fotografías y videos (número de píxeles). Un megapíxel es un millón de píxeles.

Tomemos, por ejemplo, el teléfono inteligente Fly IQ4516 Tornado Slim. Toma fotografías con una resolución máxima de 3264x2448 píxeles (3264 puntos de color de ancho y 2448 de alto). 3264 píxeles multiplicados por 2448 píxeles equivalen a 7.990.272 píxeles. El número es grande, por lo que se convierte a Mega. Es decir, el número 7.990.272 píxeles son aproximadamente 8 millones de píxeles, es decir, 8 megapíxeles.

En teoría, más chirridos significan una foto más clara. Pero no te olvides del ruido, el deterioro del rodaje con poca iluminación, etc.

Interpolación

Desafortunadamente, muchos fabricantes chinos de teléfonos inteligentes no desdeñan el aumento de resolución del software. Esto se llama interpolación. Cuando la cámara puede tomar una foto con una resolución máxima de 8 megapíxeles, y el software aumenta a 13 megapíxeles. Por supuesto, esto no mejora la calidad. ¿Cómo no dejarse engañar en este caso? Busque en Internet información sobre qué módulo de cámara se utiliza en su teléfono inteligente. Las características del módulo indican en qué resolución dispara. Si no ha encontrado información sobre el módulo, ya hay motivos para desconfiar. A veces, las características de un teléfono inteligente pueden indicar honestamente que la cámara ha sido interpolada, por ejemplo, de 13 MP a 16 MP.

Software

No subestimes el software que procesa Imagen digital y presentárnoslo en la forma final en la que lo vemos en pantalla. Determina la reproducción del color, elimina el ruido, proporciona estabilización de imagen (cuando el teléfono inteligente que tiene en la mano se mueve al disparar), etc. Sin mencionar varios modos de disparo.

Matriz de cámara

El tipo de matriz (CCD o CMOS) y su tamaño son importantes. Es ella quien captura la imagen y la transfiere al procesador para su procesamiento. La resolución de la cámara depende de la matriz.

Apertura (apertura)

Al elegir un teléfono inteligente con una buena cámara, debes prestar atención a este parámetro. A grandes rasgos, indica cuánta luz recibe la matriz a través de la óptica del módulo. Cuanto más grande, mejor. Menos conjunto, más ruido. La apertura se designa con la letra F seguida de una barra (/). Después de la barra se indica el valor de apertura, y cuanto más pequeño sea, mejor. A modo de ejemplo se indica así: F/2.2, F/1.9. A menudo indicado en especificaciones técnicas teléfono inteligente.

Una cámara con una apertura de F/1,9 disparará mejor en luz baja que una cámara con una apertura F/2.2, ya que permite que llegue más luz al sensor. Pero la estabilización también es importante, tanto software como óptica.

Estabilización óptica

Los teléfonos inteligentes rara vez están equipados con estabilización óptica. Por regla general, se trata de dispositivos caros con una cámara avanzada. Un dispositivo de este tipo se puede llamar teléfono con cámara.

La fotografía con un teléfono inteligente se realiza con la mano en movimiento y se utiliza estabilización óptica para evitar que la imagen quede borrosa. También puede haber estabilización híbrida (software + óptica). La estabilización óptica es especialmente importante con velocidades de obturación largas, cuando, debido a una iluminación insuficiente, se puede tomar una fotografía durante 1 a 3 segundos en un modo especial.

Destello

El flash puede ser LED o xenón. Esto último proporcionará mucho las mejores fotos en ausencia de luz. Hay un flash LED dual. Rara vez, pero puede haber dos: LED y xenón. Esta es la mejor opcion. Implementado en el teléfono con cámara Samsung M8910 Pixon12.

Como puede ver, la forma en que disparará un teléfono inteligente depende de muchos parámetros. Entonces, al elegir, en las características debes prestar atención al nombre del módulo, la apertura y la presencia de estabilización óptica. Lo mejor es buscar reseñas de un teléfono específico en Internet, donde se pueden ver imágenes de muestra, así como la opinión del autor sobre la cámara.

La interpolación de la cámara es un aumento artificial en la resolución de la imagen. Es la imagen, no el tamaño de la matriz. Es decir, se trata de un software especial gracias al cual una imagen de 8 megapíxeles se interpola a 13 megapíxeles o más (o menos). Para usar una analogía, la interpolación de cámaras es como una lupa o unos binoculares. Estos dispositivos amplían la imagen, pero no hacen que se vea mejor ni más detallada. Entonces, si las especificaciones del teléfono indican la interpolación, entonces la resolución real de la cámara puede ser menor que la indicada. No es bueno ni malo, simplemente lo es.

La interpolación se inventó para aumentar el tamaño de la imagen, nada más. Ahora bien, esto es una estratagema de los especialistas en marketing y fabricantes que intentan vender un producto. En el cartel publicitario indican en grandes números la resolución de la cámara del teléfono y la posicionan como una ventaja o algo bueno. La resolución en sí no sólo no afecta a la calidad de las fotografías, sino que también puede interpolarse.

Hace literalmente 3 o 4 años, muchos fabricantes perseguían la cantidad de megapíxeles y diferentes caminos Intentó meterlos en los sensores de sus teléfonos inteligentes con tantos sensores como fuera posible. Así aparecieron los smartphones con cámaras con resolución de 5, 8, 12, 15, 21 megapíxeles. Al mismo tiempo, podían tomar fotografías como las cámaras compactas más baratas, pero cuando los compradores vieron la etiqueta "cámara de 18 MP", inmediatamente quisieron comprar un teléfono de este tipo. Con la llegada de la interpolación, se ha vuelto más fácil vender este tipo de teléfonos inteligentes debido a la capacidad de agregar artificialmente megapíxeles a la cámara. Por supuesto, la calidad de las fotografías comenzó a mejorar con el tiempo, pero ciertamente no debido a la resolución o la interpolación, sino debido al progreso natural en términos de desarrollo de sensores y software.

¿Qué es técnicamente la interpolación de cámara en un teléfono, ya que todo el texto anterior describe solo la idea básica?

Utilizando un software especial, se "dibujan" nuevos píxeles en la imagen. Por ejemplo, para ampliar una imagen 2 veces, se agrega una nueva línea después de cada línea de píxeles de la imagen. Cada píxel de esta nueva línea se rellena con un color. El color de relleno se calcula mediante un algoritmo especial. La primera forma es verter. nueva línea colores que tienen los píxeles más cercanos. El resultado de dicho procesamiento será terrible, pero este método requiere un mínimo de operaciones computacionales.

La mayoría de las veces se utiliza otro método. Es decir, se añaden nuevas filas de píxeles a la imagen original. Cada píxel se rellena con un color, que a su vez se calcula como el promedio de los píxeles vecinos. Este método da mejores resultados, pero requiere más operaciones computacionales. Afortunadamente, los procesadores móviles modernos son rápidos y, en la práctica, el usuario no se da cuenta de cómo el programa edita la imagen, intentando aumentar artificialmente su tamaño. interpolación de la cámara del teléfono inteligente Hay muchos métodos y algoritmos de interpolación avanzados que se mejoran constantemente: se mejoran los límites de la transición entre colores, las líneas se vuelven más precisas y claras. No importa cómo se construyan todos estos algoritmos. La idea misma de la interpolación de cámaras es banal y es poco probable que se popularice en un futuro próximo. La interpolación no puede hacer que una imagen sea más detallada, agregar nuevos detalles ni mejorarla de ninguna otra manera. Sólo en las películas una pequeña imagen borrosa se aclara después de aplicar un par de filtros. En la práctica esto no puede suceder.
.html

Los sensores son dispositivos que detectan únicamente niveles de escala de grises (gradaciones de intensidad de la luz, desde completamente blanco hasta completamente negro). Para permitir que la cámara distinga los colores, se aplica una serie de filtros de color al silicio mediante un proceso de fotolitografía. En los sensores que utilizan microlentes, se colocan filtros entre las lentes y el fotodetector. En los escáneres que utilizan CCD trilineales (tres CCD colocados uno al lado del otro que responden a los colores rojo, azul y verde respectivamente), o en las cámaras digitales de alta gama que también utilizan tres sensores, cada sensor filtra un color de luz diferente. (Tenga en cuenta que algunas cámaras multisensor utilizan combinaciones de múltiples colores de filtro en lugar de los tres estándar). Pero para los dispositivos de un solo sensor, como la mayoría de las cámaras digitales de consumo, se utilizan conjuntos de filtros de color (CFA) para procesar los diferentes colores.

Para que cada píxel tenga su propio color primario, se coloca encima un filtro del color correspondiente. Los fotones, antes de llegar a un píxel, primero pasan por un filtro que transmite únicamente ondas de su propio color. La luz de diferente longitud simplemente será absorbida por el filtro. Los científicos han determinado que se puede obtener cualquier color del espectro mezclando solo unos pocos colores primarios. Hay tres de estos colores en el modelo RGB.

Para cada aplicación, se desarrollan sus propios conjuntos de filtros de color. Pero en la mayoría de los sensores de cámaras digitales, los conjuntos de filtros más populares son los filtros de patrón Bayer. Esta tecnología fue inventada en los años 70 por Kodak cuando investigaban la separación espacial. En este sistema, los filtros están dispuestos intercalados en un patrón de tablero de ajedrez, y el número de filtros verdes es el doble que el rojo o el azul. La disposición es tal que los filtros rojo y azul se encuentran entre los verdes.

Esta proporción cuantitativa se explica por la estructura del ojo humano: es más sensible a la luz verde. Y el patrón de tablero de ajedrez garantiza que las imágenes sean del mismo color sin importar cómo sostenga la cámara (vertical u horizontalmente). Al leer información de dicho sensor, los colores se escriben secuencialmente en líneas. La primera línea debe ser BGBGBG, la siguiente línea debe ser GRGRGR, etc. Esta tecnología se llama RGB secuencial.

En las cámaras CCD, las tres señales no se combinan en el sensor, sino en el dispositivo de formación de imágenes, después de que la señal se convierte de analógica a digital. En los sensores CMOS, esta alineación puede ocurrir directamente en el chip. En cualquier caso, los colores primarios de cada filtro se interpolan matemáticamente en función de los colores de los filtros vecinos. Tenga en cuenta que en cualquier imagen determinada, la mayoría de los puntos son mezclas de los colores primarios y solo unos pocos representan realmente rojo, azul o verde puro.

Por ejemplo, para determinar la influencia de los píxeles vecinos en el color del central, se procesará una matriz de píxeles de 3x3 durante la interpolación lineal. Tomemos, por ejemplo, el caso más simple: tres píxeles con filtros azul, rojo y azul, ubicados en una línea (BRB). Digamos que estás intentando obtener el valor de color resultante de un píxel rojo. Si todos los colores son iguales, entonces el color del píxel central se calcula matemáticamente como dos partes de azul y una parte de rojo. De hecho, incluso los algoritmos de interpolación lineal simples son mucho más complejos: tienen en cuenta los valores de todos los píxeles circundantes. Si la interpolación es deficiente, aparecen bordes irregulares en los límites del cambio de color (o aparecen artefactos de color).

Tenga en cuenta que la palabra "resolución" se utiliza incorrectamente en el campo de los gráficos digitales. Los puristas (o pedantes, como prefiera) familiarizados con la fotografía y la óptica saben que la resolución es una medida de la capacidad del ojo humano o del instrumento para distinguir líneas individuales en una cuadrícula de resolución, como la cuadrícula ISO que se muestra a continuación. Pero en la industria informática es costumbre nombrar el número de píxeles y, dado que este es el caso, también seguiremos esta convención. Después de todo, incluso los desarrolladores llaman resolución al número de píxeles del sensor.


¿Contamos?

El tamaño del archivo de imagen depende de la cantidad de píxeles (resolución). Cuantos más píxeles, más grande será el archivo. Por ejemplo, una imagen de sensores estándar VGA (640x480 o 307200 píxeles activos) ocupará unos 900 kilobytes sin comprimir. (307200 píxeles de 3 bytes (R-G-B) = 921600 bytes, que son aproximadamente 900 kilobytes) Una imagen de un sensor de 16 MP ocupará unos 48 megabytes.

Parecería que no existe tal cosa como contar el número de píxeles del sensor para determinar el tamaño de la imagen resultante. Sin embargo, los fabricantes de cámaras presentan muchos números diferentes y cada vez afirman que esta es la verdadera resolución de la cámara.

El número total de píxeles incluye todos los píxeles que existen físicamente en el sensor. Pero sólo se consideran activos aquellos que participan en la obtención de la imagen. Alrededor del cinco por ciento de todos los píxeles no contribuirán a la imagen. Estos son píxeles defectuosos o píxeles que la cámara utiliza para otro propósito. Por ejemplo, puede haber máscaras para determinar el nivel de corriente oscura o para determinar el formato del fotograma.

El formato del marco es la relación entre el ancho y el alto del sensor. En algunos sensores, como los de resolución 640x480, esta relación es 1,34:1, que coincide con el formato de fotograma de la mayoría de los monitores de ordenador. Esto significa que las imágenes creadas por dichos sensores encajarán exactamente en la pantalla del monitor, sin necesidad de recortarlas previamente. En muchos dispositivos, el formato de fotograma corresponde al formato de película tradicional de 35 mm, donde la relación es 1: 1,5. Esto le permite tomar fotografías de un tamaño y forma estándar.


Interpolación de resolución

Además de la resolución óptica (la capacidad real de los píxeles para responder a los fotones), también existe una resolución aumentada por hardware y software que utiliza algoritmos de interpolación. Al igual que la interpolación de color, la interpolación de resolución analiza matemáticamente los datos de los píxeles vecinos. En este caso, como resultado de la interpolación, se crean valores intermedios. Esta "implementación" de nuevos datos se puede realizar sin problemas, con los datos interpolados en algún punto intermedio entre los datos ópticos reales. Pero a veces durante dicha operación pueden aparecer diversas interferencias, artefactos y distorsiones, como resultado de lo cual la calidad de la imagen solo se deteriorará. Por lo tanto, muchos pesimistas creen que la interpolación de resolución no es en absoluto una forma de mejorar la calidad de la imagen, sino sólo un método para aumentar los archivos. Al elegir un dispositivo, preste atención a la resolución indicada. No se entusiasme demasiado con la alta resolución interpolada. (Está marcado como interpolado o mejorado).

Otro proceso de procesamiento de imágenes a nivel de software es el submuestreo. Básicamente, es el proceso inverso de interpolación. Este proceso se lleva a cabo en la etapa de procesamiento de imágenes, después de que los datos se convierten de formato analógico a digital. Esto elimina datos de varios píxeles. En los sensores CMOS, esta operación se puede realizar en el propio chip, deshabilitando temporalmente la lectura de ciertas líneas de píxeles o leyendo datos solo de píxeles seleccionados.

La reducción de resolución tiene dos funciones. En primer lugar, para compactar datos: almacenar más instantáneas en la memoria de un tamaño determinado. Cuanto menor sea el número de píxeles, menor será el tamaño del archivo y más imágenes podrán caber en una tarjeta de memoria o en el almacenamiento. memoria interna dispositivos y con menos frecuencia tendrá que descargar fotos a su computadora o cambiar las tarjetas de memoria.

La segunda función de este proceso es crear imágenes de un tamaño específico para propósitos específicos. Las cámaras con sensor de 2MP son bastante capaces de tomar una fotografía estándar de 8x10 pulgadas. Pero si intenta enviar una foto de este tipo por correo, aumentará notablemente el tamaño de la carta. La reducción de resolución le permite procesar una imagen para que se vea normal en los monitores de sus amigos (si no busca detalles) y al mismo tiempo enviarla lo suficientemente rápido incluso en máquinas con una conexión lenta.

Ahora que estamos familiarizados con los principios de funcionamiento del sensor y sabemos cómo se produce una imagen, profundicemos un poco más y analicemos situaciones más complejas que surgen en la fotografía digital.


Arriba