O que significa interpolação de câmera de smartphone? Interpolação de câmera, por que e o que é? A interpolação é um método para encontrar valores intermediários

O smartphone possui câmera de 8 MPix. O que significa interpolação de até 13 MPix?

    Bom dia.

    Isso significa que seu smartphone amplia uma foto/imagem tirada com uma câmera de 8 MPix para 13 MPix. E isso é feito separando os pixels reais e inserindo outros adicionais.

    Mas, se você comparar a qualidade de uma imagem/foto tirada em 13 MP e 8 MP com interpolação para 13, então a qualidade da segunda será visivelmente pior.

    Simplificando, ao criar uma foto, o processador inteligente adiciona seus próprios pixels aos pixels ativos da matriz, como se calculasse a imagem e a desenhasse para um tamanho de 13 megapixels. A saída é uma matriz de 8 e um foto com resolução de 13 megapixels. A qualidade não melhora muito com isso.

    Isso significa que a câmera pode tirar fotos de até 8 MPIX, mas no software pode ampliar fotos em até 12 MPIX. Isso significa que ele aumenta programaticamente, mas a imagem não fica com melhor qualidade, a imagem ainda terá exatamente 8 MPIX. Isso é puramente um truque do fabricante e esses smartphones são mais caros.

    Esse conceito pressupõe que a câmera do seu aparelho ainda tirará fotos em 8 MPIX, mas agora no software é possível aumentá-la para 13 MPIX. Ao mesmo tempo, a qualidade não melhora. Só que o espaço entre os pixels fica obstruído, só isso.

    Isso significa que na sua câmera, como eram 8 MPIX, eles permanecem os mesmos - nem mais nem menos, e todo o resto é uma jogada de marketing, uma enganação científica das pessoas para vender o produto por um preço mais alto e nada mais. Esta função é inútil, durante a interpolação perde-se a qualidade da foto.

    Sobre Smartphones chineses Isso agora é usado o tempo todo, só que um sensor de câmera de 13MP custa muito mais que um de 8MP, por isso definiram para 8MP, mas o aplicativo da câmera estica a imagem resultante, como resultado, a qualidade desses 13MP será visivelmente pior se você olhar para a resolução original.

    Na minha opinião esta função não adianta nada, já que 8MP é suficiente para um smartphone, em princípio 3MP é suficiente para mim, o principal é que a câmera em si é de alta qualidade.

    A interpolação da câmera é um truque do fabricante, pois inflaciona artificialmente o preço de um smartphone.

    Se você tiver uma câmera de 8 MPIX, ela poderá tirar uma foto correspondente; a interpolação não melhora a qualidade da foto, simplesmente aumenta o tamanho da foto para 13 megapixels.

    O fato é que a câmera real desses telefones tem 8 megapixels. Mas com a ajuda de programas internos, as imagens são ampliadas para 13 megapixels. Na verdade, não chega aos reais 13 megapixels.

    A interpolação de megapixels é um desfoque de software da imagem. Pixels reais são afastados e outros adicionais são inseridos entre eles, com a cor do valor médio das cores afastadas. Bobagem, autoengano que ninguém precisa. A qualidade não melhora.

  • A interpolação é um método para encontrar valores intermediários

    Se tudo isso for traduzido para uma linguagem mais humana, aplicável à sua pergunta, você obterá o seguinte:

    • O software pode processar (ampliar, esticar)) arquivos de até 13 MPIX.
  • Até 13 MPix - podem ser 8 MPix reais, como o seu. Ou 5 MPix reais. O software da câmera interpola a saída gráfica da câmera para 13 MPix, não aprimorando a imagem, mas ampliando-a eletronicamente. Simplificando, como uma lupa ou binóculos. A qualidade não muda.

Uma câmera embutida não é a última coisa na hora de escolher um smartphone. Este parâmetro é importante para muitos, por isso, ao procurar um novo smartphone, muitos prestam atenção em quantos megapixels estão indicados na câmera. Ao mesmo tempo, pessoas conhecedoras sabem que não é culpa delas. Então, vamos ver o que você precisa observar ao escolher um smartphone com uma boa câmera.

A forma como um smartphone dispara depende de qual módulo de câmera está instalado nele. Parece na foto (os módulos da câmera frontal e principal parecem aproximadamente iguais). Cabe facilmente no case do smartphone e, via de regra, é preso com um cabo. Este método facilita a substituição em caso de quebra.

A Sony detém o monopólio do mercado. São suas câmeras, em sua maioria, que são utilizadas em smartphones. OmniVision e Samsung também estão envolvidas na produção.

O próprio fabricante do smartphone é importante. Na verdade, depende muito da marca, e uma empresa que se preze equipará seu aparelho com uma câmera realmente boa. Mas vamos descobrir o que determina a qualidade da fotografia do smartphone ponto por ponto.

CPU

Você está surpreso? É o processador que iniciará o processamento da imagem ao receber os dados da fotomatriz. Não importa quão alta qualidade seja a matriz, um processador fraco não será capaz de processar e transformar as informações que recebe dela. Isso se aplica não apenas à gravação de vídeo em alta resolução e quadros rápidos por segundo, mas também à criação de imagens de alta resolução.

Obviamente, quanto mais quadros por segundo forem alterados, maior será a carga no processador.

Entre as pessoas que entendem de telefones, ou que pensam que entendem, existe a opinião de que smartphones com processadores Qualcomm americanos tiram fotos melhores do que smartphones com processadores MediaTek de Taiwan. Não vou refutar ou confirmar isso. Pois bem, o fato de não existirem smartphones com câmeras excelentes em processadores Spreadtrum chineses de baixo desempenho, a partir de 2016, já é um fato.

Número de megapixels

A imagem consiste em pixels (pontos) que são formados por uma fotomatriz durante o disparo. Obviamente, quanto mais pixels, melhor será a qualidade da imagem e maior será a sua clareza. Nas câmeras, esse parâmetro é indicado como megapixels.

Megapixels (Mp, Mpx, Mpix) - um indicador da resolução de fotografias e vídeos (número de pixels). Um megapixel equivale a um milhão de pixels.

Vejamos, por exemplo, o smartphone Fly IQ4516 Tornado Slim. Tira fotos com resolução máxima de 3264x2448 pixels (3264 pontos coloridos de largura e 2448 de altura). 3.264 pixels multiplicados por 2.448 pixels equivalem a 7.990.272 pixels. O número é grande, por isso é convertido para Mega. Ou seja, o número 7.990.272 pixels equivale a aproximadamente 8 milhões de pixels, ou seja, 8 megapixels.

Em teoria, mais guinchos significam uma foto mais nítida. Mas não se esqueça do ruído, da deterioração da filmagem com pouca iluminação, etc.

Interpolação

Infelizmente, muitos fabricantes chineses de smartphones não desdenham o aumento da resolução do software. Isso é chamado de interpolação. Quando a câmera consegue tirar uma foto com resolução máxima de 8 megapixels, o software aumenta para 13 megapixels. Claro, isso não melhora a qualidade. Como não ser enganado neste caso? Pesquise na Internet informações sobre qual módulo de câmera é usado em seu smartphone. As características do módulo indicam em que resolução ele dispara. Se você não encontrou informações sobre o módulo, já há motivos para ficar atento. Às vezes, as características de um smartphone podem indicar honestamente que a câmera foi interpolada, por exemplo, de 13 MP para 16 MP.

Programas

Não subestime o software que processa imagem digital e apresentá-lo para nós na forma final em que o vemos na tela. Ele determina a reprodução de cores, elimina ruídos, fornece estabilização de imagem (quando o smartphone em sua mão se contorce ao fotografar), etc.

Matriz de câmera

O tipo de matriz (CCD ou CMOS) e seu tamanho são importantes. É ela quem captura a imagem e a transfere para o processador para processamento. A resolução da câmera depende da matriz.

Abertura (abertura)

Ao escolher um smartphone com uma boa câmera, você deve ficar atento a este parâmetro. Grosso modo, indica quanta luz a matriz recebe através da óptica do módulo. Quanto maior melhor. Menos definido - mais ruído. A abertura é designada pela letra F seguida por uma barra (/). Após a barra é indicado o valor da abertura, e quanto menor for, melhor. A título de exemplo, é indicado o seguinte: F/2.2, F/1.9. Frequentemente indicado em especificações técnicas Smartphone.

Uma câmera com abertura de F/1.9 fotografará melhor em luz baixa do que uma câmera com abertura F/2.2, pois permite que mais luz atinja o sensor. Mas a estabilização também é importante, tanto de software quanto óptica.

Estabilização óptica

Os smartphones raramente são equipados com estabilização óptica. Via de regra, são dispositivos caros com câmeras avançadas. Esse dispositivo pode ser chamado de telefone com câmera.

O disparo com smartphone é feito com a mão em movimento e, para evitar que a imagem fique desfocada, utiliza-se a estabilização ótica. Também poderá haver estabilização híbrida (software + óptica). A estabilização óptica é especialmente importante em velocidades longas do obturador, quando, devido à iluminação insuficiente, uma foto pode ser tirada por 1-3 segundos em um modo especial.

Clarão

O flash pode ser LED ou xenônio. Este último fornecerá muito as melhores fotos na ausência de luz. Há um flash LED duplo. Raramente, mas pode haver dois: LED e xenônio. Essa é a melhor opção. Implementado no telefone com câmera Samsung M8910 Pixon12.

Como você pode ver, a forma como um smartphone dispara depende de muitos parâmetros. Portanto, na hora de escolher, nas características você deve prestar atenção ao nome do módulo, abertura e presença de estabilização óptica. O melhor é procurar análises de um telefone específico na Internet, onde você pode ver exemplos de imagens, bem como a opinião do autor sobre a câmera.

A interpolação da câmera é um aumento artificial na resolução da imagem. É a imagem, não o tamanho da matriz. Ou seja, trata-se de um software especial, graças ao qual uma imagem de 8 megapixels é interpolada para 13 megapixels ou mais (ou menos). Para usar uma analogia, a interpolação da câmera é como uma lupa ou binóculo. Esses dispositivos ampliam a imagem, mas não a tornam melhor ou mais detalhada. Portanto, se a interpolação estiver indicada nas especificações do telefone, a resolução real da câmera poderá ser inferior à indicada. Não é bom nem ruim, simplesmente é.

A interpolação foi inventada para aumentar o tamanho da imagem, nada mais. Agora, esta é uma manobra de profissionais de marketing e fabricantes que estão tentando vender um produto. Eles indicam em grande número no cartaz publicitário a resolução da câmera do celular e posicionam isso como uma vantagem ou algo bom. A resolução em si não só não afeta a qualidade das fotografias, mas também pode ser interpolada.

Literalmente, 3-4 anos atrás, muitos fabricantes perseguiam o número de megapixels e jeitos diferentes tentaram colocá-los nos sensores de seus smartphones com o máximo de sensores possível. Foi assim que surgiram os smartphones com câmeras com resolução de 5, 8, 12, 15, 21 megapixels. Ao mesmo tempo, eles podiam tirar fotos como as câmeras automáticas mais baratas, mas quando os compradores viram o adesivo “câmera de 18 MP”, imediatamente quiseram comprar esse telefone. Com o advento da interpolação, ficou mais fácil vender esses smartphones devido à capacidade de adicionar artificialmente megapixels à câmera. É claro que a qualidade da foto começou a melhorar com o tempo, mas certamente não por causa da resolução ou interpolação, mas por causa do progresso natural em termos de desenvolvimento do sensor e Programas.

O que é tecnicamente interpolação de câmera em um telefone, já que todo o texto acima descreveu apenas a ideia básica?

Usando um software especial, novos pixels são “desenhados” na imagem. Por exemplo, para ampliar uma imagem 2 vezes, uma nova linha é adicionada após cada linha de pixels da imagem. Cada pixel nesta nova linha é preenchido com uma cor. A cor de preenchimento é calculada por um algoritmo especial. A primeira maneira é derramar nova linha cores que os pixels mais próximos possuem. O resultado desse processamento será terrível, mas este método requer um mínimo de operações computacionais.

Na maioria das vezes, outro método é usado. Ou seja, novas linhas de pixels são adicionadas à imagem original. Cada pixel é preenchido com uma cor, que por sua vez é calculada como a média dos pixels vizinhos. Este método fornece melhores resultados, mas requer mais operações computacionais. Felizmente, os processadores móveis modernos são rápidos e, na prática, o usuário não percebe como o programa edita a imagem, tentando aumentar artificialmente seu tamanho. interpolação da câmera do smartphone Existem muitos métodos e algoritmos avançados de interpolação que estão em constante aprimoramento: os limites da transição entre as cores são melhorados, as linhas tornam-se mais precisas e claras. Não importa como todos esses algoritmos são construídos. A própria ideia de interpolação de câmera é banal e é pouco provável que se concretize num futuro próximo. A interpolação não pode tornar uma imagem mais detalhada, adicionar novos detalhes ou melhorá-la de qualquer outra forma. Somente em filmes uma pequena imagem borrada fica nítida após a aplicação de alguns filtros. Na prática isso não pode acontecer.
.html

Sensores são dispositivos que detectam apenas níveis de escala de cinza (gradações de intensidade de luz – de totalmente branco a totalmente preto). Para permitir que a câmera distinga cores, uma série de filtros de cores é aplicada ao silício usando um processo de fotolitografia. Nos sensores que utilizam microlentes, os filtros são colocados entre as lentes e o fotodetector. Em scanners que usam CCDs trilineares (três CCDs colocados lado a lado que respondem às cores vermelha, azul e verde, respectivamente), ou em câmeras digitais de última geração que também usam três sensores, cada sensor filtra uma cor de luz diferente. (Observe que algumas câmeras multissensor usam combinações de múltiplas cores de filtro em vez dos três padrão). Mas para dispositivos com sensor único, como a maioria das câmeras digitais de consumo, matrizes de filtros de cores (CFA) são usadas para processar as diferentes cores.

Para que cada pixel tenha sua própria cor primária, um filtro da cor correspondente é colocado acima dele. Os fótons, antes de chegarem a um pixel, passam primeiro por um filtro que transmite apenas ondas de sua própria cor. Luz de comprimento diferente será simplesmente absorvida pelo filtro. Os cientistas determinaram que qualquer cor do espectro pode ser obtida misturando apenas algumas cores primárias. Existem três dessas cores no modelo RGB.

Para cada aplicação, são desenvolvidos seus próprios conjuntos de filtros de cores. Mas na maioria dos sensores de câmeras digitais, os conjuntos de filtros mais populares são os filtros de padrão Bayer. Essa tecnologia foi inventada na década de 70 pela Kodak quando pesquisava a separação espacial. Neste sistema, os filtros são dispostos intercalados em um padrão xadrez, e o número de filtros verdes é duas vezes maior que o vermelho ou azul. A disposição é tal que os filtros vermelho e azul ficam localizados entre os verdes.

Essa proporção quantitativa é explicada pela estrutura do olho humano - é mais sensível à luz verde. E o padrão xadrez garante que as imagens tenham a mesma cor, independentemente de como você segura a câmera (vertical ou horizontalmente). Ao ler informações desse sensor, as cores são escritas sequencialmente em linhas. A primeira linha deve ser BGBGBG, a próxima linha deve ser GRGRGR, etc. Essa tecnologia é chamada RGB sequencial.

Nas câmeras CCD, todos os três sinais são combinados não no sensor, mas no dispositivo formador de imagem, após o sinal ser convertido de analógico para digital. Nos sensores CMOS, esse alinhamento pode ocorrer diretamente no chip. Em ambos os casos, as cores primárias de cada filtro são interpoladas matematicamente com base nas cores dos filtros vizinhos. Observe que em qualquer imagem, a maioria dos pontos são misturas das cores primárias e apenas alguns representam vermelho, azul ou verde puro.

Por exemplo, para determinar a influência dos pixels vizinhos na cor do pixel central, uma matriz 3x3 de pixels será processada durante a interpolação linear. Tomemos, por exemplo, o caso mais simples - três pixels - com filtros azul, vermelho e azul, localizados em uma linha (BRB). Digamos que você esteja tentando obter o valor da cor resultante de um pixel vermelho. Se todas as cores forem iguais, então a cor do pixel central é calculada matematicamente como duas partes de azul para uma parte de vermelho. Na verdade, mesmo algoritmos simples de interpolação linear são muito mais complexos: eles levam em consideração os valores de todos os pixels circundantes. Se a interpolação for ruim, aparecerão bordas irregulares nos limites de mudança de cor (ou aparecerão artefatos de cor).

Observe que a palavra “resolução” é usada incorretamente na área de gráficos digitais. Puristas (ou pedantes, o que você preferir) familiarizados com fotografia e óptica sabem que a resolução é uma medida da capacidade do olho humano ou instrumento de distinguir linhas individuais em uma grade de resolução, como a grade ISO mostrada abaixo. Mas na indústria de informática costuma-se nomear o número de pixels e, como for esse o caso, também seguiremos esta convenção. Afinal, até os desenvolvedores chamam a resolução de número de pixels no sensor.


Vamos contar?

O tamanho do arquivo de imagem depende do número de pixels (resolução). Quanto mais pixels, maior será o arquivo. Por exemplo, uma imagem de sensores padrão VGA (640x480 ou 307.200 pixels ativos) ocupará cerca de 900 kilobytes em formato não compactado. (307200 pixels de 3 bytes (RGB) = 921600 bytes, que é aproximadamente 900 kilobytes) Uma imagem de um sensor de 16 MP ocupará cerca de 48 megabytes.

Parece que não existe contagem do número de pixels no sensor para determinar o tamanho da imagem resultante. No entanto, os fabricantes de câmeras apresentam vários números diferentes e sempre afirmam que esta é a verdadeira resolução da câmera.

O número total de pixels inclui todos os pixels que existem fisicamente no sensor. Mas apenas são considerados ativos aqueles que participam da obtenção da imagem. Cerca de cinco por cento de todos os pixels não contribuirão para a imagem. Estes são pixels defeituosos ou pixels usados ​​pela câmera para outra finalidade. Por exemplo, podem existir máscaras para determinar o nível de corrente escura ou para determinar o formato do quadro.

O formato do quadro é a relação entre a largura e a altura do sensor. Em alguns sensores, como os de resolução 640x480, essa proporção é de 1,34:1, o que corresponde ao formato de quadro da maioria dos monitores de computador. Isso significa que as imagens criadas por tais sensores caberão exatamente na tela do monitor, sem recorte prévio. Em muitos dispositivos, o formato do quadro corresponde ao formato do filme tradicional de 35 mm, onde a proporção é de 1:1,5. Isso permite que você tire fotos de tamanho e formato padrão.


Interpolação de resolução

Além da resolução óptica (a capacidade real dos pixels de responder aos fótons), há também a resolução aumentada por hardware e software usando algoritmos de interpolação. Assim como a interpolação de cores, a interpolação de resolução analisa matematicamente os dados dos pixels vizinhos. Neste caso, como resultado da interpolação, são criados valores intermediários. Esta "implementação" de novos dados pode ser feita sem problemas, com os dados interpolados estando em algum lugar entre os dados ópticos reais. Mas às vezes durante tal operação podem aparecer várias interferências, artefatos e distorções, como resultado dos quais a qualidade da imagem só se deteriorará. Portanto, muitos pessimistas acreditam que a interpolação de resolução não é uma forma de melhorar a qualidade da imagem, mas apenas um método para aumentar os arquivos. Ao escolher um dispositivo, preste atenção na resolução indicada. Não fique muito animado com a alta resolução interpolada. (Está marcado como interpolado ou aprimorado).

Outro processo de processamento de imagem em nível de software é a subamostragem. Essencialmente, é o processo inverso da interpolação. Esse processo é realizado na etapa de processamento da imagem, após a conversão dos dados do formato analógico para o digital. Isso remove dados de vários pixels. Nos sensores CMOS, esta operação pode ser realizada no próprio chip, desativando temporariamente a leitura de determinadas linhas de pixels, ou lendo dados apenas de pixels selecionados.

A redução da resolução tem duas funções. Em primeiro lugar, para compactação de dados - para armazenar mais instantâneos de um determinado tamanho na memória. Quanto menor o número de pixels, menor o tamanho do arquivo e mais fotos você pode colocar em um cartão de memória ou armazenamento. memória interna dispositivos e menos frequentemente você terá que baixar fotos para o seu computador ou trocar cartões de memória.

A segunda função deste processo é criar imagens de tamanho específico para fins específicos. Câmeras com sensor de 2MP são perfeitamente capazes de tirar uma foto padrão de 8x10 polegadas. Mas se você tentar enviar essa foto pelo correio, o tamanho da carta aumentará visivelmente. A redução da resolução permite que você processe uma imagem para que pareça normal nos monitores de seus amigos (se você não busca detalhes) e ao mesmo tempo a envia com rapidez suficiente, mesmo em máquinas com conexão lenta.

Agora que estamos familiarizados com os princípios de funcionamento do sensor e sabemos como uma imagem é produzida, vamos nos aprofundar um pouco mais e abordar situações mais complexas que surgem na fotografia digital.


Principal