Les téléviseurs actuels proposent un large éventail de fonctions parfois difficilement comprises par les utilisateurs. L’intérêt de ces fonctionnalités est variable, et repose souvent sur le type d’utilisation que l’on souhaite faire de son écran. Certaines ont davantage un intérêt marketing pour les constructeurs et les distributeurs, et n’apportent pas un réel confort visuel à l’utilisateur.

Il y a quelques années, Le marketing ne jurait que par la 3D et le nombre de hertz. La 3D promettait d’offrir une expérience hors du commun, en créant une impression de relief dans l’image. Bien qu’étant une technologie intéressante, la 3D n’a jamais convaincu le grand public. La faute à une technologie pas suffisamment aboutie, et la nécessité de porter des lunettes et les contraintes qui vont avec. Ces lunettes étaient de trois types : anaglyphes (rouge et bleu), passives (ou polarisantes) et actives. L’expérience qui en découlait était inégale, toutes offrant un résultat perfectible. Après de vaines tentatives, les constructeurs ont préféré abandonner cette fonctionnalité, et à l’heure actuelle, très peu de téléviseurs sur le marché proposent la 3D.

Le marketing reposant sur le nombre de hertz est étroitement lié à l’utilisation de la 3D. En effet, les lunettes actives, qui offrent le résultat le plus convaincant en termes de rendu 3D, nécessitent d’avoir un téléviseur d’au moins 100 Hz, en opposition aux téléviseurs classiques de 50hz en Europe et 60 Hz aux Etats-Unis et au Japon. Les constructeurs promettaient par ailleurs que plus le nombre de Hertz serait élevé, plus l’image serait bonne. La surenchère a fait que les constructeurs ont proposé des écrans de 120 Hz, 240 et même 600, bien que ce dernier chiffre soit trompeur, car dans la pratique, cela correspondait à une fréquence de rafraîchissement de 100 Hz.

L’interpolation :  le Motion Smoothing

La réalité est loin des promesses marketing : Il est inutile d’avoir un écran de plus de 60 Hz pour visionner un programme télévisé, un film ou une série. En effet, ces programmes ne sont que très rarement proposés à un nombre d’images par seconde supérieur à 30, équivalent à 60 trames par seconde ou 60 hertz. Les constructeurs ont alors eu l’idée d’inclure dans leur téléviseur l’interpolation vidéo, autrement dit Motion Smoothing, ayant pour but de simuler une nouvelle image entre deux, et donc de rendre la scène plus fluide. Le nombre de hertz a pris alors tout son sens, car le rendu est totalement différent : l’image apparaît plus nette, et donc beaucoup plus réelle. Mais le résultat est mitigé, si ce n’est catastrophique : les films sont dénaturés, ressemblant à des sitcoms, et gâchant l’expérience cinématographique, à tel point que les réalisateurs partent en guerre contre cette technologie.

À l’heure actuelle, la guerre des hertz est terminée, au même titre que la 3D est oubliée. Place aux technologies OLED, 4K et HDR, qui ont le mérite d’offrir un réel confort visuel. Ces trois technologies sont présentées comme essentielles pour l’utilisateur. Mais à moins d’avoir un budget large permettant d’acquérir un téléviseur à plusieurs milliers d’euros, il va falloir privilégier une technologie à une autre.

La 4K correspond à la définition de l’image. L’appellation prend sa source dans le nombre de pixels que totalise la largeur de l’écran, soit 4096. En réalité, aucun téléviseur n’affiche un tel nombre de pixels. Les constructeurs utilisent à tort l’appellation 4K dans un but marketing. Dans les faits, les téléviseurs « 4K » font 3840 pixels de large et 2160 pixels de haut. Ils proposent donc 8,2 millions de pixels, pour 8,8 millions pour la véritable 4K. Le résultat est presque semblable, raison pour laquelle les constructeurs n’ont pas cessé d’utiliser cette appellation, facilement à mémoriser pour le consommateur. Le terme correct qu’il faudrait utiliser est Ultra HD, en opposition à Full HD, qui renvoie à une définition de 1920 par 1080, pour un total de 2 millions de pixels. Autrement dit, les téléviseurs Ultra HD proposent 4 fois plus de pixels que les téléviseurs Full HD. L’image est alors beaucoup plus fine, mais le gain visuel n’est pas toujours évident : tout dépend de la qualité de la source visionnée, et de la diagonale du téléviseur.

À l’heure actuelle, les sources 4K se généralisent, et les programmes télévisés, ainsi que les chaînes spécialisées comme Netflix et les Blu-ray, proposent un contenu toujours plus important en 4K. Le résultat est saisissant : en comparant un film Blu-ray 1080p (ou Full HD) à un Blu-ray Ultra HD, on s’aperçoit que l’image gagne en netteté, tout autant que lors du passage du DVD au Blu-ray dans les années 2000. Malgré tout, pour bénéficier pleinement de l’expérience 4K, il est nécessaire d’avoir une diagonale d’écran importante. Ainsi, en dessous de 65 pouces, ou 165 cm, et si l’on se tient relativement loin de l’écran, il est difficile de percevoir le gain de netteté de l’image. La 4K est donc une technologie très appréciable, à condition d’avoir un grand écran. Quoi qu’il en soit, à l’heure actuelle, tous les téléviseurs sont équipés de la 4K, ce qui n’entraine pas de surcoût pour l’acquisition de cette technologie.

HDR : le format du futur ?

Le HDR est certainement la technologie la plus incomprise par le consommateur. HDR signifie High Dynamic Range, soit imagerie à grande gamme dynamique. Autrement dit, l’image apparaît plus lumineuse, et les couleurs affichées sont différentes de celles d’un téléviseur classique, c’est-à-dire SDR.

On trouve sur Internet de nombreuses comparaisons entre SDR et HDR, mais malheureusement, celles-ci sont très souvent peu explicites pour une raison simple : il est impossible de se rendre compte du rendu HDR à partir d’un écran SDR. Pour comprendre la différence entre SDR et HDR, le mieux est de se déplacer en magasin, et de visionner une séquence HDR sur un téléviseur équipé de la technologie. Le résultat est étonnant : l’image apparaît plus lumineuse, et surtout plus colorée. Le spectre de couleurs est agrandi, et l’on peut bénéficier de nouvelles couleurs, qui flattent la rétine. Cela nécessite, à l’image de la 4K, que la source soit HDR.

À l’heure actuelle, il existe peu de chaînes de télévision qui proposent le HDR. En revanche, le contenu HDR pour les films s’étoffe. Ainsi, les long-métrages qui sont édités en Blu-ray Ultra HD sont également proposés en HDR. Différentes normes HDR existent : Dolby vision, HDR10, HDR10+. Si le résultat varie, toutes offrent un gain visuel frappant face aux téléviseurs SDR. Il est d’autant plus intéressant de prendre un téléviseur HDR que le gain visuel ne dépend pas de la taille de l’écran. Ainsi, les utilisateurs qui sont contraints, pour des raisons esthétiques ou de budget, de prendre un petit écran, obtiendront un net gain visuel avec le HDR. Par ailleurs, cette fonction n’implique pas un gros surcoût lors de l’achat du téléviseur.

La dernière technologie phare de notre époque est le OLED, de loin la caractéristique la plus onéreuse. Cette technologie s’oppose aux écrans LCD, Plasma, LED, et QLED. Chronologiquement, l’écran LED a remplacé l’écran LCD et Plasma, offrant une image plus contrastée, et une meilleure qualité d’image grâce notamment à un rétroéclairage plus homogène. À l’heure actuelle, la très grande majorité des téléviseurs proposés sur le marché sont équipés d’écrans LED. Les écrans OLED, qui ont investi le marché depuis plusieurs années maintenant, ont du mal à se démocratiser chez l’usager pour une raison bien précise : leur prix. Chez les constructeurs réputés comme Samsung, Sony ou LG, il faut compter plusieurs milliers d’euros pour obtenir un écran OLED, et ce, même si les prix baissent depuis plusieurs années. L’emploi de cette technologie est coûteux pour les constructeurs, qui n’arrivent pas à proposer des écrans OLED à un tarif abordable. Certains constructeurs misent alors sur les écrans QLED, qu’ils présentent comme bénéficiant d’une qualité d’image excellente. Dans la pratique, ce n’est pas le cas : le QLED, dont le rendu varie d’un constructeur à un autre, offre une meilleure expérience que le LED, mais reste loin derrière le OLED.

L’écran OLED permet d’obtenir un contraste très important. Lorsque l’écran est allumé, les noirs sont presque totalement noirs, comme si l’écran était éteint. En visualisant son écran dans une pièce plongée dans la pénombre, on se rend compte du confort visuel que le OLED peut offrir. Seuls les pixels lumineux apparaissent, contrairement à un écran LED où les noirs ne sont pas suffisamment profonds, et offrent un rendu oscillant entre le gris et le noir. Ce contraste presque infini permet d’obtenir une expérience cinématographique incomparable, et ce, quelle que soit la diagonale du téléviseur.

Pour conclure, il apparaît que pour les petits budgets privilégiant la diagonale de l’écran, il n’est pas nécessaire de se tourner vers les écrans OLED ou HDR : la 4K se charge d’offrir une excellente expérience cinématographique. Néanmoins, si le budget le permet, investir pour une centaine voire quelques centaines d’euros de plus dans un écran HDR peut s’avérer intéressant.

Pour ceux qui ont un budget limité et qui ne cherchent pas à posséder un écran de grande taille, il est possible de trouver des écrans OLED accessibles parmi les constructeurs d’entrée de gamme. Pour les plus exigeants, il apparaîtra qu’un téléviseur 4K, OLED, certifié HDR et doté d’une grande diagonale, offrira une expérience cinématographique exceptionnelle, d’autant plus s’il est proposé par un constructeur reconnu pour la qualité de ses écrans.

Sommaire

A Propos de l'auteur

Avatar

Patrice

Passionné d'informatique depuis l'enfance, je suis aussi programmeur C/C++ Objective C pour PC, Mac, iOS. Bloggeur pour DigitallyOurs à mes heures perdues.

Votre commentaire