fbpx
MobileNewsTech

iPhone 14 Pro e Pro Max avranno una fotocamera da 48 megapixel

Ma a cosa servirà questo nuovo sensore?

Dopo 7 anni di sensori da 12 megapixel Apple è pronta a cambiare.
iPhone 14 Pro e Pro Max, in arrivo in autunno, dovrebbero montare una fotocamera principale da 48 megapixel. Naturalmente non sarà l’unica novità presente sugli smartphone della Mela, che verranno dotati del processore A16 Bionic e che dovrebbero sfoggiare finalmente un doppio forellino invece dell’ingombrante notch degli ultimi anni, ma le innovazioni che riguardano il comparto fotografico sono quelle che da sempre attirano maggior attenzione. A maggior ragione questa volta, visto che l’azienda di Cupertino è sempre stata paladina dei sensori da 12 MP.

Perché 12 megapixel?

Negli ultimi anni gli smartphone Android ci hanno sorpreso con sensori dalla risoluzione enorme. Basta pensare a quello da 108 megapixel che oggi troviamo su Samsung Galaxy S22 Ultra.
Perché quindi Apple ha scelto di rimanere ancorata ai 12 MP? Semplice: perché bastavano.
Aumentare i megapixel non comporta automaticamente una miglior qualità. Anzi, quando non viene fatta una corretta ottimizzazione software tutto ciò che otteniamo è un aumento del peso delle immagini.
La società guidata da Tim Cook ha preferito quindi continuare con il medesimo sensore lavorando però su tutto il resto e dando vita ad un camera phone che, ancora oggi, è molto difficile da battere o da eguagliare.

Quindi perché iPhone 14 Pro passa a 48 megapixel?

iPhone 14 Pro render
Un render di iPhone 14 Pro

Beh, perché è il momento giusto.
Un sensore da 48 megapixel consentirà ad Apple di supportare la registrazione di video in 8K. Oggi potrebbe sembrarvi una feature inutile. Insomma, dove posso mai godermi un video con questa risoluzione? Il display dello smartphone è piccolo, i monitor dei PC sono tendenziale 4K o Full HD e i televisori 8K già presenti nelle case dei consumatori sono pochissimi. Vero, ma Cupertino pensa sempre al futuro e un iPhone è destinato a durare anni quindi perché non iniziare a supportare questa funzionalità?

Anche le foto possono trarre beneficio da un sensore di questo genere. Come? Grazie al pixel-binning, una tecnica che unisce più pixel per crearne uno più grande. Questo aiuta a catturare più luce e a più dettagli.

Infine è possibile mimare uno zoom semplicemente con un crop della foto catturata dal sensore principale. Google, con il suo Pixel 6, è una vera maestra di quest’arte. In sostanza invece di zoomare effettivamente, la foto viene scattata con il sensore più grande e poi tagliata per ottenere l’ingrandimento che vi interessa.
Voi ovviamente non vi accorgete di nulla ma beneficiate dei risultati, quindi di foto più nitide, definite e cromaticamente accurate.

Naturalmente questa è la teoria. Per scoprire come Apple implementerà effettivamente il nuovo sensore dovremo attendere il lancio ufficiale.

Da non perdere questa settimana su Techprincess

🚪 La pericolosa backdoor di Linux, disastro sventato da un solo ricercatore
 
🎶Streaming Farms: il lato oscuro della musica, tra ascolti falsi e stream pompati
 
✈️Abbiamo provato DJI Avata 2: sempre più divertente!
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Source
Phone Arena

Erika Gherardi

Amante del cinema, drogata di serie TV, geek fino al midollo e videogiocatrice nell'anima. Inspiegabilmente laureata in Scienze e tecniche psicologiche e studentessa alla magistrale di Psicologia Clinica, dello Sviluppo e Neuropsicologia.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button