Hvordan kan man finne ut om skjermen støtter 10bits fargedybde?


18 Jan 2011
35
2
8
Har denne¨ rimelige skjermen fra Philips. Det opplyses ikke noenting om fargedybde eller antall farger i spesifikasjonen. Lurer på om det har noe for seg at jeg bruker kildemateriale med 10 bit eller ikke.
 

einis

0
6 Jan 2004
16.161
14
38
man kan ta placebo pillen? :LOL:
"While 10-bit reaches 1024 colors per channel, 8-bit will only reach 256 per channel. This means that 8-bit files will display 16.7 million colors, while 10-bit will display about 1.07 billion, which is a lot more..."

"Researchers estimate that most humans can see around one million different colors..."

selv om det sku vise seg at mennesket kan se flere farger tror jeg lite på dette, hvilken verdi har det? og f.eks når man ser HDR demonstrert er det stor forskjell i fargene, selv om man avspiller en video av det på youtube med en 15år gammel skjerm.
snakeoil for å selge ny "teknologi"? kan virke slik. ekstrem lysstyrke og kontrast er dessuten ubehagelig med stor skjerm om man går fra lys til mørk scene...

det eneste produsentene kan gjøre for å øke inntektene er å selge flashy ny teknolgi eller sabotere produktene elektrisk, noe samsung ble tatt for, for en del år siden, de brukte søppel kondensatorer som varte en viss stund (litt over garantien vanligvis) når det ble avdekket sveiset de dem fast i senere serier for å gjøre det ekstra vanskelig å bytte ut. man driver også med lignende i programvare. har du for gammel skjerm? too bad, du må kjøpe ny! :p f.eks nesten alle mobiler og nettbrett jeg har hatt har blitt gjort tregere og nærmest ubrukelig med oppdateringer som produsenten selv anbefalte!
det er ikke en "konspirasjonsteori". det er slik økonomene tenker på kontoret!

@lygren har sikkert noe å si?
 
Sist redigert:

lygren

Grunnlegger
Medlem av ledelsen
11 Des 2002
43.535
335
83
46
www.avforum.no
Problemet med 8-bits farger er ikke antall farger en kan blande, men overgangene i nyanser med samme grunnfarge, eksempelvis en blå himmel. Hvis en kun har 256 toner per kanal vil en ofte se banding / synlige overganger, så 10-bit / 1024 nyanser er absolutt å foretrekke. De fleste TVer har oppskalering fra 8 til 10-bit, men ikke alle fungerer like bra, så det er uten tvil en fordel med 10-bits kildemateriale. Hvorvidt denne spesifikke Philips TVen funker bra på 8-bits materiale er dessverre vanskelig å si noe særlig om for min del.
 
  • Like
Reactions: vegardxf
18 Jan 2011
35
2
8
Har nå lest er par artikler om dette. Dem synes å hevde at det har forholdsvis mye å si for hvor glatte overgangene blir mellom objekter med svært forskjellige farger blir. Skal kunne eliminere eller "blurre" ut omriss. Så helt bortkastet er det nok ikke selv om våre menneskeøyne er litt begrensede :)
 
4 Feb 2005
717
3
18
Å der snakker dem om 30bit og 24bit. Hva i alle dager?
Gammel tråd, men jeg svarer allikevel.

30 og 24 bits er det samme som 10 og 8 bits. Husk at fargene bygges opp av grunnfargene RGB. Hver farge har 8 (eller 10) graderinger. Dette betyr at et TV med 8 bits fargeoppløsning har 8 x 8 x 8 = 24 bits fargeoppløsning med 8 bit på hver grunnfarge. HDR har 10 bits fargeoppløsning per grunnfarge som tilsvarer 10 x 10 x 10 = 30 bits fargeoppløsning.
 
  • Like
Reactions: Tharayman