A ver,
@Ashtyr , sin pretender soliviantar a alguien...
para aclararle algo a alguien primero deberías saber, y no creo que sepas de lo que hablas. Yo sí. Sin acritud, simplemente estás equivocado y repites ideas erróneas de foros de electrónica de consumo y videos de llutube.
HDR10+ sí que es inferior y mucho a Dolby Visión, no obstante Samsung no tiene ni pajolera idea de teoría,física y aplicación del color y Dolby son MAESTROS. Samsung son unos coreanos que sueldan resistencias y chips en PCBs y desarrollan tecnología de proyección que, mayormente, otros han investigado y creado,y se la compran(como LG hizo con la tecnología OLED que le compraron a Kodak). Dolby investiga, desarrolla e implementa imagen desde antes que ambos nacieramos.
No sabes ni en qué está basado HDR10/HDR10+, ni quién lo inventó, ni quién lo popularizó. Como mucho te habrás leído algún bullet point del white paper de HDR10+ y puede, aunque lo dudo, que el A de la UHD Alliance y habrás confiado mucho en foros y llutube para hacerte una idea parcial.
No sabes quién empezó todo esto? Que es PQ=SMPTE 2084=HDR10, que lleva a SMPTE-2094-40/HDR10+, que es la columna vertebral de TODO el HDR, por no decir de la transferencia de imagen digital moderna? Quién lo inventó y desarrollo? Quién hizo que fuera un estándar de facto antes de que la SMPTE lo adoptara, como y porqué?
PUES FUE DOLBY LABORATORIES!!!
Dolby, como ha hecho siempre, estudia, inventa y avanza la imagen y el sonido. Samsung fábrica teles, móviles y lavadoras. Punto. A los hechos me remito:
Presentación PQ anterior a SMPTE-2084
Presentación PQ 2 anterior a SMPTE-2084
Dolby Laboratories investigó, como siempre ha hecho, el color. Antes se masterizaba a través de CRT con consolas y monitores que usaban una función de transferencia diferente. Por qué no sirve en el mundo digital? Leete la primera presentación de la SMPTE.
Así que Dolby se pone a lo suyo y desarrolla PQ, una función de transferencia y cuantización del color. Trata de acercar el espectro transferible desde la cámara a datos (OOTF)y de los datos a la proyección en masterizado y colorización y, finalmente, en salas y televisiones(EOTF), a la percepción absoluta del ojo humano, porque lo anterior no valía ya. La desarrolla en base a un prototipo suyo, el primer prototipo existente donde se usa espacio de color DCI-P3, con alto rango dinámico (HDR) y alto contraste. Con este investiga tanto la creación del color a EOTF como la percepción visual y mil zarandajas más. Punto para Dolby.
En base a sus investigaciones con este y otros prototipos, Dolby saca el Dolby Pulsar PRM-4200 a finales de 2010, primer monitor de colorimetría y masterizado de pantalla plana con transporte digital, alto contraste, espacio de color y rango dinámico, primera cosa que usa PQ, primer producto que transfiere fielmente el color capturado (cámara a datos) a EOTF(datos a proyector). Se convierte en el estándar de facto de la industria de la imagen porque es tan insultantemente bueno y superior a cualquier cosa en ese momento o el pasado que no hay color, nunca mejor dicho jajaja. Todo el mundo o tiene uno o quiere uno. Dolby prácticamente inventa la transmisión y proyección HDR en cine y televisión. Punto para Dolby.
Mientras, el HDR es un Salvaje Oeste de pollos sin cabeza, sin estándares ni na. Unos hacen un HDR, otros otro, otros ninguno, todos engañan a los consumidores y la única honesta es Dolby, ya que usa su propia tecnología, función y algoritmos. La SMPTE invita a Dolby, que veían la necesidad de estandarizar el HDR como algo vital, a presentar PQ ya que estaba pensando en estandarizar el sindios del HDR y UHD a través de la tecnología y algoritmos claramente superior de Dolby, y lo hace.Léase documento 2 de presentación de PQ. Punto para Dolby.
Posteriormente la SMPTE pública el estándar SMPTE-2084 basado en PQ de Dolby, que graciosamente aporta al estándar, basado en un espacio de color, Rec. 2020 dentro de DCI-P3, que es el que Dolby usó para desarrollar PQ. Dolby inventa el UHD HDR, como capturar el color, manejarlo y transferirlo. Usa los algoritmos de transporte de Dolby sobre HDMI y otros interfaces, usa el espacio de color elegido por Dolby para desarrollar PQ, se usa su hardware de masterizado, sus funciones de transferencia. Fácil porque toda la cadena podía usar PQ, ya estaba de facto en gran parte, eran los fabricantes de displays de consumo general que como siempre, tienes que atarles con el lazo de un estándar o hacen lo que les sale del pixel. Punto para Dolby, lease presentación de SMPTE-2084 a continuación.
Presentación SMPTE-2084
Dolby saca Dolby Vision, que es una aplicación superior de la teoría detrás de la creación de PQ EOTF, porque, recordemos, Dolby lleva la tira de tiempo con PQ.
Se crea la UHD Alliance, principalmente fabricantes de electrónica de consumo y sacan HDR10 basado en SMPTE-2086, que no es más que SMPTE-2084 y especificar MaxCC/MaxFALL=metadatos estáticos según las capacidades de la TV/display. Punto para Dolby.
Mientras Dolby sigue a lo suyo con su Dolby Vision.
Un año o dos después, se publica SMPTE-2094, luego conocido como SMPTE-2094-10 a medida que Phillips(-20), Technicolor(-30) y por último Samsung(-40) especifican su saborcico para cambiar dinámicamente la imagen, su color y luminancia. Estándar HDR con metadatos dinámicos. quién es el primero que lo hace, explica a SMPTE y establece los parámetros de lo que debe ser HDR con metadatos dinámicos? Quién es ese SMPTE 2094 que luego pasó a 2094-10? Dolby.
Samsung y Amazon no quieren darle un duro a Dolby por Dolby Vision, vete a saber que pasaría pero intuyo que nada bonico en esa reunión, se alían y a base de mandar al conserje y al becario a la SMPTE se montan un estándar que no está nada mal pero no deja de ser SMPTE-2084 con alguna regla más, llamado HDR10+. El edificio entero sigue siendo PQ, Samsung solo le ha puesto una pegatina pa llamar al cerrajero en el dintel de la puerta. Punto para Dolby.
Entonces con ese saborcico de SMPTE 2094-40 Samsung hace HDR10+, que reitero que no es más que el inventillo del conserje de Samsung, porque las matemáticas se le dan mal al pobre coreano, y como no puede tratar el color, trata la proyección de la imagen en la tele. Modula la luminosidad de la proyección en un muy último paso a partir de SMPTE 2084, no mete mano al color y su transferencia de cámara a datos y de datos a proyector/display simplemente porque conserje no entender ni nunca lo hará. Y esto es porque Samsung se empeñan en la tecnología LED mientras todo el resto de la cadena desde el objetivo de la cámara hasta las teles está usando OLED. Le mete los Quantum Dots de otra compañía, que es un muy buen inventillo intermedio entre LED y OLED para tener color porque si no como cojones va siquiera a acercarse al espacio de color necesario para mostrar HDR en condiciones como si hace OLED. De luminosidad va sobrado. Y no puede hacer Tone Mapping Dinámico frame a frame por una sencilla razón... porque las zonas de atenuación son inferiores a las de la tecnología OLED que son 8 millones y pico, y tienen más latencia las zonas de atenuación LED, entonces por eso lo hace escena a escena, es su inventillo para tener modulación dinámica del brillo, no del color, y proyectar bien. Buena e ingeniosa solución a los problemas inherentes de la tecnología LED aún aplicándoles QD, pero no deja de ser un compromiso. No puede hacer postprocesado frame a frame porque ni la CPU seguramente tenga la potencia necesaria, ni sería bonico ver un espectáculo de color aberrante, donde la imagen va por delante de su color. Samsung y Amazon se alían para extenderlo, no así desarrollarlo.
SMPTE 2094-40
Dolby Vision es superior porque Dolby creó el HDR que hoy día conocemos. Porque prácticamente todo el ecosistema HDR se asienta o bebe de sus investigaciones, teoría, prototipos y productos. Porque proveyó de PQ sobre BT 2020 que viene de DCI-P3 al mundo. Porque el estándar HDR10 se basa en su trabajo. Porque mientras los demás usan PQ a secas en HDR10/HDR10+, Dolby lleva años usando ICtCp sobre PQ, que es una función de transferencia superior a PQ EOTF. Porque manipularon el transporte de datos de HDMI, TMDS, de forma tan ingeniosa que consiguieron meter 12bits de color+metadatos dinámicos en 10bits hasta HDMI 1.4 y al HDMI Forum les molo tanto que lo incluyeron en la especificación. Porque piensa a futuro y prevee displays de más nits. Porque lleva los datos en el frame, y no es, hablando mal, un filtro HDR sobre HDR10 que aplica el display modulando brillo (sobredensionado muchas veces), adaptándolo a la capacidad de nits de la tele. Porque de mapeo de color ni hablamos, ya que Samsung no creo que ponga al pobre conserje a estudiar a ver si mágicamente se le ocurre una función de transferencia y la industria lo acepta, como sí ha hecho con PQ e ICtCp.
Y ahora te digo por qué entre HDR10+ y Dolby Vision en displays de alta gama a veces hay tan poca diferencia. Los coloristas y masterizadores influyen, depende de que trabajo le quieran meter a HDR10/Dolby Vision, si a una, a otra o a ambas. HDR 10+ importa bien poco, porque como he dicho es indicarle al display y ahora súbele el brillo aquí, y ahora bajamelo allí, técnicamente. El meollo de HDR10+ está en HDR10.
Se debe a la tecnología de Display para consumidor, como ha dicho Tocinillo. QLED basado en LED y OLED basado en mismamente. Samsung tiene brillo a espuertas, y usa QD para aumentar el volumen de color y acercarse al color de referencia, pero ay amigo, por un lado del espectro tiene mucho, por otro poco. Por eso escapa al espacio de color, que por otra parte, tiene colores más vivos debido a ese brillo y a ir a locas con el volumen de color. Mete zonas de atenuación porque es la única manera de que QDLED/LED sea dinámico. Es diferente, Mola. Pero ni de coña puede llegar a mostrar frame a frame porque se volvería loca la pantalla así que desarrolla su aportación a la SMPTE-2094-40, que es la base de HDR10+ como una forma de modular el brillo dinámicamente, que por otra parte apoyo totalmente porque no todo puede ser el máximo o si no NADA. Así puedes dotar a teles LED de un mejor HDR, y es abierto. Nada que objetar.
OLED es mucho más preciso al mostrar el color pero le falta brillo, lo puedes meter pero los pixeles OLED se quemarán debido al calor. Como se soluciona ahora? Refrigerando OLED. Prácticamente todos los monitores de masterizado buenos son OLED, tienen un brillo acojonante y una representación de color DCI-P3 que ya quisieramos ver por aquí gracias a su sistema de refrigeración. Panasonic toma nota y saca un panel con refrigeración gorda, no tan gorda como un monitor de masterizado pero oiga, que OLED ya está en los 1000nits. Por eso se ve mejor que cualquier otra. Y a igualdad de nits siempre se verá mejor un OLED/QDOLED/microLED que un QDLED simplemente porque es una tecnología emisiva independiente a nivel pixel sin tanto filtro ni atenuación, con mayor contraste y definición por tener menos capas de proyección y tener un contraste cercano a 0 a infinito entre medias, técnicamente, y menos latencia. Por eso LG se lanzó de cabeza a apoyar Dolby Vision, por el brillo de sus paneles OLED que era un pestiño hasta tiempos recientes comparado con QDLED, y necesitaban sí o sí mapear el color en HDR. Por eso su algoritmo de mapeado dinámico de la tele es tan bueno, porque llevan dándole al martillo del mapeado más tiempo que nadie a excepción de Dolby.
Dolby Vision tiene diferentes perfiles y tu los vas ajustando según parámetros del display hoy y mañana, está preparado a futuro. HDR10+ es actualmente(no así en un futuro cuando usé tecnología emisiva, que podrá usar otros de los specs del white paper de HDR10+) un remedio de Samsung, por otra parte muy bueno, eficiente y abierto, pero inferior a Dolby Vision, para dotar de Tone mapping dinámico a una tecnología finita a la que le quedan 4 telediarios a tenor de sus ansias de cerrar ya LED, ponerse con QDOLED y en un futuro, microLED.