Hva betyr interpolering av smarttelefonkamera? Kamerainterpolering, hvorfor og hva er det? Interpolasjon er en metode for å finne mellomverdier

Smarttelefonen har et 8 MPix-kamera. Hva betyr interpolasjon opp til 13 MPix?

    God dag.

    Dette betyr at smarttelefonen din strekker et bilde/bilde tatt med et 8 MPix-kamera til 13 MPix. Og dette gjøres ved å flytte de virkelige pikslene fra hverandre og sette inn flere.

    Men hvis du sammenligner kvaliteten på et bilde/bilde tatt med 13 MP og 8 MP med interpolering til 13, vil kvaliteten på det andre bli merkbart dårligere.

    For å si det enkelt, når du lager et bilde, legger den smarte prosessoren til sine egne piksler til de aktive piksler i matrisen, som om den beregner bildet og tegner det til en størrelse på 13 megapiksler. Utgangen er en matrise på 8 og en bilde med en oppløsning på 13 megapiksler. Kvaliteten blir ikke mye bedre av dette.

    Dette betyr at kameraet kan ta et bilde opp til 8 MPIX, men i programvare kan det forstørre bilder opp til 12 MPIX. Det betyr at den forstørrer det programmatisk, men bildet blir ikke bedre kvalitet, bildet vil fortsatt være nøyaktig 8 MPIX. Dette er rent et triks fra produsenten og slike smarttelefoner er dyrere.

    Dette konseptet forutsetter at kameraet til enheten din fortsatt vil ta bilder med 8 MPIX, men nå i programvare er det mulig å øke det til 13 MPIX. Samtidig blir ikke kvaliteten bedre. Det er bare det at rommet mellom pikslene blir tilstoppet, det er alt.

    Dette betyr at i kameraet ditt, siden det var 8 MPIX, forblir de de samme - verken mer eller mindre, og alt annet er et markedsføringsknep, en vitenskapelig luring av folket for å selge produktet til en høyere pris og ingenting mer. Denne funksjonen er ubrukelig; under interpolering går kvaliteten på bildet tapt.

    kinesiske smarttelefoner Dette brukes nå hele tiden, det er bare at en 13 MP kamerasensor koster mye mer enn en 8MP, det er derfor de stiller den til 8MP, men kameraapplikasjonen strekker det resulterende bildet, som et resultat, kvaliteten på disse 13MP. vil bli merkbart verre hvis du ser på den opprinnelige oppløsningen.

    Etter min mening er denne funksjonen til ingen nytte i det hele tatt, siden 8MP er ganske nok for en smarttelefon; i prinsippet er 3MP nok for meg, det viktigste er at selve kameraet er av høy kvalitet.

    Kamerainterpolering er et triks fra produsenten; det øker kunstig prisen på en smarttelefon.

    Hvis du har et 8 MPIX-kamera, kan det ta et tilsvarende bilde; interpolering forbedrer ikke kvaliteten på bildet, det øker ganske enkelt størrelsen på bildet til 13 megapiksler.

    Faktum er at det virkelige kameraet i slike telefoner er 8 megapiksler. Men ved hjelp av interne programmer strekkes bildene til 13 megapiksler. Faktisk når den ikke de faktiske 13 megapikslene.

    Megapikselinterpolasjon er en programvareuskarphet av bildet. Ekte piksler flyttes fra hverandre, og ytterligere piksler settes inn mellom dem, med fargen på gjennomsnittsverdien fra fargene flyttet fra hverandre. Tull, selvbedrag som ingen trenger. Kvaliteten blir ikke bedre.

  • Interpolasjon er en metode for å finne mellomverdier

    Hvis alt dette er oversatt til et mer menneskelig språk, relevant for spørsmålet ditt, får du følgende:

    • Programvaren kan behandle (forstørre, strekke)) filer opp til 13 MPIX.
  • Opptil 13 MPix - dette kan være 8 ekte MPix, som din. Eller 5 ekte MPix. Kameraprogramvaren interpolerer kameraets grafikkutgang til 13 MPix, og forbedrer ikke bildet, men forstørrer det elektronisk. Enkelt sagt, som et forstørrelsesglass eller en kikkert. Kvaliteten endres ikke.

Et innebygd kamera er ikke det siste når du skal velge smarttelefon. Denne parameteren er viktig for mange, så når de leter etter en ny smarttelefon, er det mange som legger merke til hvor mange megapiksler som er oppgitt i kameraet. Samtidig vet kunnskapsrike mennesker at det ikke er deres feil. Så la oss se på hva du må se etter når du skal velge en smarttelefon med et godt kamera.

Hvordan en smarttelefon vil ta bilder avhenger av hvilken kameramodul som er installert i den. Det ser ut som på bildet (front- og hovedkameramodulene ser omtrent like ut). Den plasseres enkelt i smarttelefondekselet og festes som regel med en kabel. Denne metoden gjør det enkelt å erstatte det hvis det går i stykker.

Sony har monopol på markedet. Det er kameraene, i flertall, som brukes i smarttelefoner. OmniVision og Samsung er også involvert i produksjonen.

Selve smarttelefonprodusenten er viktig. I virkeligheten avhenger mye av merkevaren, og et selskap med respekt for seg selv vil utstyre enheten sin med et virkelig godt kamera. Men la oss finne ut hva som bestemmer kvaliteten på smarttelefonfotografering punkt for punkt.

prosessor

Er du overrasket? Det er prosessoren som skal begynne å behandle bildet når den mottar data fra fotomatrisen. Uansett hvor høy kvalitet matrisen er, vil ikke en svak prosessor være i stand til å behandle og transformere informasjonen den mottar fra den. Dette gjelder ikke bare for å ta opp video i høy oppløsning og raske bilder per sekund, men også for å lage høyoppløselige bilder.

Jo flere bilder per sekund endres, jo større belastning på prosessoren.

Blant folk som forstår telefoner, eller som tror de gjør det, er det en oppfatning om at smarttelefoner med amerikanske Qualcomm-prosessorer tar bedre bilder enn smarttelefoner med taiwanske MediaTek-prosessorer. Jeg vil ikke avkrefte eller bekrefte dette. Vel, det faktum at det ikke finnes smarttelefoner med utmerkede kameraer på kinesiske Spreadtrum-prosessorer med lav ytelse, fra og med 2016, er allerede et faktum.

Antall megapiksler

Bildet består av piksler (prikker) som dannes av en fotomatrise under fotografering. Jo flere piksler, jo bedre er kvaliteten på bildet og jo høyere klarhet. I kameraer er denne parameteren indikert som megapiksler.

Megapiksler (Mp, Mpx, Mpix) - en indikator på oppløsningen til fotografier og videoer (antall piksler). Én megapiksel er én million piksler.

La oss for eksempel ta smarttelefonen Fly IQ4516 Tornado Slim. Den tar bilder i en maksimal oppløsning på 3264x2448 piksler (3264 fargepunkter i bredden og 2448 i høyden). 3264 piksler multiplisert med 2448 piksler tilsvarer 7.990.272 piksler. Antallet er stort, så det konverteres til Mega. Det vil si at antallet 7 990 272 piksler er omtrent 8 millioner piksler, det vil si 8 megapiksler.

I teorien betyr flere knirking et klarere bilde. Men ikke glem støy, forringelse av fotografering i dårlig belysning, etc.

Interpolasjon

Dessverre forakter mange kinesiske smarttelefonprodusenter ikke programvareøkning i oppløsning. Dette kalles interpolasjon. Når kameraet kan ta et bilde med en maksimal oppløsning på 8 megapiksler, og det er programvare økt til 13 megapiksler. Dette forbedrer selvsagt ikke kvaliteten. Hvordan ikke bli lurt i dette tilfellet? Søk på Internett for informasjon om hvilken kameramodul som brukes i smarttelefonen din. Egenskapene til modulen indikerer hvilken oppløsning den skyter i. Hvis du ikke har funnet informasjon om modulen, er det allerede grunn til å være på vakt. Noen ganger kan egenskapene til en smarttelefon ærlig indikere at kameraet har blitt interpolert, for eksempel fra 13 MP til 16 MP.

Programvare

Ikke undervurder programvare som behandler digitalt bilde og presentere det for oss i den endelige formen som vi ser det på skjermen. Den bestemmer fargegjengivelsen, eliminerer støy, gir bildestabilisering (når smarttelefonen i hånden din rykker ved opptak) osv. For ikke å snakke om ulike opptaksmoduser.

Kameramatrise

Matrisetypen (CCD eller CMOS) og størrelsen er viktig. Det er hun som fanger bildet og overfører det til prosessoren for behandling. Kameraoppløsningen avhenger av matrisen.

Blenderåpning (blenderåpning)

Når du velger en smarttelefon med et godt kamera, bør du ta hensyn til denne parameteren. Grovt sett indikerer den hvor mye lys matrisen mottar gjennom modulens optikk. Jo større jo bedre. Mindre satt - mer støy. Blenderåpningen er angitt med bokstaven F etterfulgt av en skråstrek (/). Etter skråstreken vises blenderverdien, og jo mindre den er, jo bedre. Som et eksempel er det angitt som følger: F/2.2, F/1.9. Ofte angitt i tekniske spesifikasjoner smarttelefon.

Et kamera med blenderåpning på F/1.9 vil ta bedre bilder svakt lys enn et kamera med F/2.2 blenderåpning, siden det lar mer lys treffe sensoren. Men stabilisering er også viktig, både programvare og optisk.

Optisk stabilisering

Smarttelefoner er sjelden utstyrt med optisk stabilisering. Som regel er dette dyre enheter med et avansert kamera. En slik enhet kan kalles en kameratelefon.

Fotografering med smarttelefon utføres med en bevegelig hånd og optisk stabilisering brukes for å forhindre at bildet blir uskarpt. Det kan også være hybridstabilisering (programvare + optisk). Optisk stabilisering er spesielt viktig ved lange lukkertider, når et bilde på grunn av utilstrekkelig belysning kan tas i 1-3 sekunder i en spesiell modus.

Blits

Blitsen kan være LED eller xenon. Sistnevnte vil gi mye de beste bildene i fravær av lys. Det er en dobbel LED-blits. Sjelden, men det kan være to: LED og xenon. Dette er det beste alternativet. Implementert i Samsung M8910 Pixon12 kameratelefon.

Som du kan se, avhenger hvordan en smarttelefon vil skyte av mange parametere. Så når du velger, bør du i egenskapene være oppmerksom på navnet på modulen, blenderåpningen og tilstedeværelsen av optisk stabilisering. Det er best å se etter anmeldelser av en bestemt telefon på Internett, hvor du kan se eksempelbilder, samt forfatterens mening om kameraet.

Kamerainterpolasjon er en kunstig økning i bildeoppløsningen. Det er bildet, ikke matrisestørrelsen. Det vil si at dette er spesiell programvare, takket være hvilken et bilde på 8 megapiksler er interpolert til 13 megapiksler eller mer (eller mindre). For å bruke en analogi, er kamerainterpolering som et forstørrelsesglass eller en kikkert. Disse enhetene forstørrer bildet, men får det ikke til å se bedre eller mer detaljert ut. Så hvis interpolasjon er angitt i telefonens spesifikasjoner, kan den faktiske kameraoppløsningen være lavere enn oppgitt. Det er ikke bra eller dårlig, det bare er det.

Interpolasjon ble oppfunnet for å øke størrelsen på bildet, ikke noe mer. Nå er dette et knep fra markedsførere og produsenter som prøver å selge et produkt. De angir i stort antall på reklameplakaten oppløsningen til telefonens kamera og posisjonerer det som en fordel eller noe godt. Ikke bare påvirker ikke oppløsningen i seg selv kvaliteten på fotografiene, men den kan også interpoleres.

Bokstavelig talt for 3-4 år siden jaktet mange produsenter på antall megapiksler og forskjellige måter prøvde å stappe dem inn i smarttelefonsensorene sine med så mange sensorer som mulig. Slik dukket det opp smarttelefoner med kameraer med en oppløsning på 5, 8, 12, 15, 21 megapiksler. Samtidig kunne de ta bilder som de billigste pek-og-skyt-kameraene, men da kjøperne så "18 MP kamera"-klistremerket, ønsket de umiddelbart å kjøpe en slik telefon. Med fremveksten av interpolering har det blitt lettere å selge slike smarttelefoner på grunn av muligheten til å kunstig legge megapiksler til kameraet. Selvfølgelig begynte fotokvaliteten å bli bedre over tid, men absolutt ikke på grunn av oppløsning eller interpolering, men på grunn av naturlig fremgang når det gjelder sensorutvikling og programvare.

Hva er kamerainterpolering i en telefon teknisk sett, siden all teksten ovenfor bare beskrev den grunnleggende ideen?

Ved hjelp av spesiell programvare "tegnes" nye piksler på bildet. For å forstørre et bilde 2 ganger, legges det til en ny linje etter hver linje med piksler i bildet. Hver piksel i denne nye linjen er fylt med en farge. Fyllfargen beregnes av en spesiell algoritme. Den aller første måten er å helle ny linje farger som de nærmeste pikslene har. Resultatet av slik behandling vil være forferdelig, men denne metoden krever et minimum av beregningsoperasjoner.

Oftest brukes en annen metode. Det vil si at nye rader med piksler legges til det originale bildet. Hver piksel er fylt med en farge, som igjen beregnes som gjennomsnittet av nabopiksler. Denne metoden gir bedre resultater, men krever flere beregningsoperasjoner. Heldigvis er moderne mobile prosessorer raske, og i praksis legger brukeren ikke merke til hvordan programmet redigerer bildet, og prøver å kunstig øke størrelsen. smarttelefonkamerainterpolering Det er mange avanserte interpoleringsmetoder og algoritmer som stadig forbedres: grensene for overgangen mellom farger forbedres, linjene blir mer nøyaktige og tydelige. Det spiller ingen rolle hvordan alle disse algoritmene er bygget. Selve ideen om kamerainterpolering er banal og vil neppe fange opp i nær fremtid. Interpolering kan ikke gjøre et bilde mer detaljert, legge til nye detaljer eller forbedre det på noen annen måte. Først i filmer blir et lite uskarpt bilde tydelig etter påføring av et par filtre. I praksis kan dette ikke skje.
.html

Sensorer er enheter som kun oppdager gråtonenivåer (graderinger av lysintensitet - fra helt hvitt til helt svart). For å gjøre det mulig for kameraet å skille farger, brukes en rekke fargefiltre på silisiumet ved hjelp av en fotolitografiprosess. I sensorer som bruker mikrolinser, plasseres filtre mellom linsene og fotodetektoren. I skannere som bruker trilineære CCD-er (tre CCD-er plassert side ved side som reagerer på henholdsvis røde, blå og grønne farger), eller i avanserte digitale kameraer som også bruker tre sensorer, filtrerer hver sensor en annen lysfarge. (Merk at noen multisensorkameraer bruker kombinasjoner av flere filterfarger i stedet for standard tre). Men for enheter med én sensor, som de fleste digitale forbrukerkameraer, brukes fargefiltermatriser (CFA) til å behandle de forskjellige fargene.

For at hver piksel skal ha sin egen primærfarge, plasseres et filter med tilsvarende farge over den. Fotoner, før de når en piksel, passerer først gjennom et filter som bare overfører bølger av sin egen farge. Lys av en annen lengde vil ganske enkelt absorberes av filteret. Forskere har bestemt at enhver farge i spekteret kan oppnås ved å blande bare noen få primærfarger. Det er tre slike farger i RGB-modellen.

For hver applikasjon utvikles dets egne rekker av fargefiltre. Men i de fleste digitale kamerasensorer er de mest populære filterarrayene Bayer-mønsterfiltrene. Denne teknologien ble oppfunnet på 70-tallet av Kodak da de forsket på romlig separasjon. I dette systemet er filtrene arrangert ispedd et rutemønster, og antallet grønne filtre er dobbelt så stort som rødt eller blått. Arrangementet er slik at de røde og blå filtrene er plassert mellom de grønne.

Dette kvantitative forholdet forklares av strukturen til det menneskelige øyet - det er mer følsomt for grønt lys. Og sjakkbrettmønsteret sikrer at bildene har samme farge uansett hvordan du holder kameraet (vertikalt eller horisontalt). Når du leser informasjon fra en slik sensor, skrives farger sekvensielt i linjer. Den første linjen skal være BGBGBG, den neste linjen skal være GRGRGR osv. Denne teknologien kalles sekvensiell RGB.

I CCD-kameraer kombineres ikke alle tre signalene på sensoren, men i den bildedannende enheten, etter at signalet er konvertert fra analog til digital. I CMOS-sensorer kan denne justeringen skje direkte på brikken. I begge tilfeller er primærfargene til hvert filter matematisk interpolert basert på fargene til nabofiltrene. Merk at i et gitt bilde er de fleste prikker blandinger av primærfargene, og bare noen få faktisk representerer rent rødt, blått eller grønt.

For eksempel, for å bestemme påvirkningen av nabopiksler på fargen til den sentrale, vil en 3x3 matrise av piksler behandles under lineær interpolasjon. La oss for eksempel ta det enkleste tilfellet - tre piksler - med blå, røde og blå filtre, plassert på én linje (BRB). La oss si at du prøver å få den resulterende fargeverdien til en rød piksel. Hvis alle farger er like, beregnes fargen på den sentrale pikselen matematisk som to deler blått til én del rødt. Faktisk er selv enkle lineære interpolasjonsalgoritmer mye mer komplekse; de ​​tar hensyn til verdiene til alle omkringliggende piksler. Hvis interpoleringen er dårlig, vises taggete kanter ved fargeendringsgrensene (eller fargeartefakter vises).

Merk at ordet "oppløsning" brukes feil i feltet digital grafikk. Purister (eller pedanter, avhengig av hva du foretrekker) som er kjent med fotografi og optikk vet at oppløsning er et mål på evnen til det menneskelige øyet eller instrumentet til å skille individuelle linjer på et oppløsningsrutenett, for eksempel ISO-rutenettet vist nedenfor. Men i databransjen er det vanlig å navngi antall piksler, og siden dette er tilfelle, vil vi også følge denne konvensjonen. Tross alt kaller selv utviklere oppløsning for antall piksler i sensoren.


Skal vi telle?

Bildefilstørrelsen avhenger av antall piksler (oppløsning). Jo flere piksler, jo større er filen. For eksempel vil et bilde fra VGA-standardsensorer (640x480 eller 307200 aktive piksler) ta opp omtrent 900 kilobyte i ukomprimert form. (307200 piksler på 3 byte (R-G-B) = 921600 byte, som er omtrent 900 kilobyte) Et bilde fra en 16 MP sensor vil ta opp omtrent 48 megabyte.

Det ser ut til at det ikke er noe slikt som å telle antall piksler i sensoren for å bestemme størrelsen på det resulterende bildet. Kameraprodusenter presenterer imidlertid en haug med forskjellige tall, og hver gang hevder de at dette er den sanne oppløsningen til kameraet.

Det totale antallet piksler inkluderer alle piksler som fysisk finnes i sensoren. Men bare de som deltar i å få bildet anses som aktive. Omtrent fem prosent av alle piksler vil ikke bidra til bildet. Disse er enten defekte piksler eller piksler som brukes av kameraet til et annet formål. For eksempel kan det være masker for å bestemme mørkestrømnivået eller for å bestemme rammeformatet.

Rammeformat er forholdet mellom bredden og høyden på sensoren. I noen sensorer, for eksempel 640x480 oppløsning, er dette forholdet 1,34:1, som samsvarer med rammeformatet til de fleste dataskjermer. Dette betyr at bilder laget av slike sensorer vil passe nøyaktig inn på LCD-skjermen, uten forutgående beskjæring. I mange enheter tilsvarer rammeformatet formatet til tradisjonell 35 mm film, hvor forholdet er 1:1,5. Dette lar deg ta bilder av standard størrelse og form.


Oppløsningsinterpolering

I tillegg til optisk oppløsning (pikslers faktiske evne til å reagere på fotoner), er det også oppløsning som økes av maskinvare og programvare ved hjelp av interpolerende algoritmer. I likhet med fargeinterpolering analyserer oppløsningsinterpolasjon matematisk data fra nabopiksler. I dette tilfellet, som et resultat av interpolering, opprettes mellomverdier. Denne "implementeringen" av nye data kan gjøres ganske jevnt, med de interpolerte dataene et sted mellom de faktiske optiske dataene. Men noen ganger under en slik operasjon kan det oppstå forskjellige interferenser, artefakter og forvrengninger, som et resultat av at bildekvaliteten bare vil forringes. Derfor mener mange pessimister at oppløsningsinterpolering ikke er en måte å forbedre bildekvaliteten på i det hele tatt, men bare en metode for å øke filer. Når du velger en enhet, vær oppmerksom på hvilken oppløsning som er angitt. Ikke bli for begeistret over den høye interpolerte oppløsningen. (Det er merket som interpolert eller forbedret).

En annen bildebehandlingsprosess på programvarenivå er subsampling. I hovedsak er det den omvendte prosessen med interpolasjon. Denne prosessen utføres på bildebehandlingsstadiet, etter at dataene er konvertert fra analog til digital form. Dette fjerner data fra ulike piksler. I CMOS-sensorer kan denne operasjonen utføres på selve brikken, ved midlertidig å deaktivere lesing av visse linjer med piksler, eller ved å lese data kun fra utvalgte piksler.

Nedsampling har to funksjoner. For det første, for datakomprimering - for å lagre flere øyeblikksbilder i minnet av en viss størrelse. Jo lavere antall piksler, jo mindre filstørrelse, og jo flere bilder får du plass til på et minnekort eller i lagring. internt minne enheter og jo sjeldnere må du laste ned bilder til datamaskinen eller bytte minnekort.

Den andre funksjonen til denne prosessen er å lage bilder av en bestemt størrelse for spesifikke formål. Kameraer med en 2MP-sensor er ganske i stand til å ta et standard 8x10-tommers bilde. Men hvis du prøver å sende et slikt bilde per post, vil det øke størrelsen på brevet merkbart. Nedsampling lar deg behandle et bilde slik at det ser normalt ut på dine venners skjermer (hvis du ikke sikter på detaljer) og sender det samtidig raskt nok selv på maskiner med treg tilkobling.

Nå som vi er kjent med prinsippene for sensordrift og vet hvordan et bilde produseres, la oss se litt dypere og berøre mer komplekse situasjoner som oppstår i digital fotografering.


Topp