Porque la respuesta está en las matemáticas, y esto ya lo explicó
@Tocinillo en su día cuando discutimos si un vídeo 4K se veía mejor en un TV 8K, como pregonan marcas como Samsung o Sony (y que sorprendentemente defienden también revistas de reviews), o en un TV 4K:
- En un
TV Full HD, la
TDT 1080i no necesita interpolación, y para la
TDT 576i (SD),
necesita "inventarse" (1920x1080)-(720x576)=
1.658.880 puntos (un 80% del total).
- En una
TV 4K, para la
TDT 1080i la TV
necesita "inventarse" (3840x2160)-(1920x1080)=
6.220.800 puntos (un 75% del total), y para la
TDT SD, (3840x2160)-(720x576)=
7.879.680 puntos (un 95% del total).
Lo que pasa es que se puede disimular mucho la interpolación con algoritmos con muy buenos resultados, como los de
superresolución (que usa
Sony, no sé cuáles usa Panasonic o LG). Pero el resultado, inevitablemente, no podrá ser el mismo que en un panel 1080.
Esta explicación es extrapolable al caso de la imagen 4K en un TV 8K (pero con otra cantidad de puntos a interpolar, lógicamente).