
HDR10+ : quelle est cette nouvelle technologie sur les télévisions ?
Si vous avez récemment exploré l'univers des téléviseurs, vous avez probablement vu passer le terme HDR10+. Qu'est-ce que cette technologie d'affichage et en quoi se distingue-t-elle des autres standards HDR ? Lumière sur cette nouveauté.
Comme toutes les technologies, les télévisions évoluent et beaucoup de nouveaux modèles se vantent de posséder les technologies dernier cri. Aujourd’hui, les téléviseurs hauts de gamme mettent en avant leurs standards Dolby Vision ou HDR10+, mais qu’est-ce que cela signifie et surtout à quoi ça sert ? SFR Actus vous explique tout cela et vous dit également avec quelles plateformes utilisent ces récentes technologies.
Qu'est-ce que le HDR ?
Le HDR (High Dynamic Range) est une technologie d'affichage qui améliore considérablement la qualité de l'image en augmentant la plage de luminosité et la précision des couleurs. Contrairement aux technologies SDR (Standard Dynamic Range), le HDR permet d'afficher des noirs plus profonds, des blancs plus éclatants et une gamme de couleurs plus étendue. Résultat : des images plus réalistes et immersives.
HDR10 et ses limites
L'HDR10 est un des premiers standards HDR largement adoptés, mais présente pourtant quelques limites. Il s'appuie sur des métadonées statiques, appliquant uniformément les paramètres de luminosité et de couleur, ce qui peut poser problème lors de scènes particulièrement contrastées, l'optimisation restant figée tout au long de la vidéo. l'HDR10 est une technologie avancée mais qui peut manquer de flexibilité.
Le HDR10+ pour une expérience encore plus immersive
Le HDR10+ a été développé par Samsung en réponse aux limites du HDR10. Sa principale caractéristique et différence réside ici dans l'utilisation de métadonnées dynamiques. Contrairement au HDR10, cette technologie ajuste la luminosité et les couleurs scène par scène, voire image par image.
Autre avantage : le HDR10+ est un format ouvert et sans licence, ce qui le rend plus accessible aux fabricants de téléviseurs et aux plateformes de streaming. C'est un atout face au Dolby Vision, son principal concurrent, qui repose également sur des métadonnées dynamiques mais impose des frais de licence. Bien que moins populaire que le Dolby Vision, l’HDR10+ se veut donc plus accessible pour les constructeurs.
Une adoption croissante
C’est pour cette dernière raison que cette technologie commence à s’imposer, malgré une adoption initialement limitée. De grandes plateformes comme Prime Video, YouTube, Paramount+ ou encore Apple TV+ proposent du contenu compatible avec ce format. Plus récemment, Disney+ a également annoncé son support du HDR10+, une excellente nouvelle pour les propriétaires de téléviseurs Samsung, qui ne prennent pas en charge Dolby Vision.
HDR10+ vs Dolby Vision : lequel choisir ?
Dolby Vision offre une profondeur de couleur sur 12 bits (contre 10 bits pour le HDR10+), ce qui permet une meilleure gestion des nuances. Mais pour être parfaitement honnête, la différence ne sera perceptible que par des yeux experts, d'autant plus que peu d'écrans exploitent pleinement le 12 bits.
Le HDR10+ a, en revanche, l’avantage d’être un format libre de droit et donc gratuit pour les fabricants, ce qui peut participer à sa popularité sur de plus en plus de télévisueurs. Le choix entre l’un et l’autre n’est alors plus aussi important. En somme, si vous possédez un téléviseur Samsung ou Panasonic, le HDR10+ sera souvent votre seule option, tandis que les modèles d’autres marques comme LG et Sony offrent généralement Dolby Vision.
Source : 01net
