Spm om HDMI/DVD og fargeoppløsning

Sponsorer:
Takk Takk:  0
Like Like:  0
Viser resultater 1 til 11 av 11
  1. #1
    Newcomer
    Medlem siden
    Feb 2005
    Poster
    236
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)

    Spm om HDMI/DVD og fargeoppløsning

    I begynnelsen hadde mesteparten av LCD/Plasma bare 8 bits fargedybde (dvs 16,7 mill farger). I dag begynner de fleste å få både 10 og 12 bits fargedybde.

    Men dersom du kjører digitalt hele veien, og benytter HDMI eller DVI mellom mottaker/DVD og skjerm, så har jeg lest at HDMI (tli og med versjon 1.2) bare har 8 bits fargedybde (dvs 16,7 mill farger). Dersom du i tillegg har en mottaker/DVD som tilpasser bildet til skjermens oppløsning (pixelmapping ?) vil ikke da HDMI overføringen være en begrensning når det gjelder fargeoppløsning ?

    Vil en få bedre fargeoppløsning dersom en kjører komponent kabel mellom mottaker/DVD og skjem ?

  2. #2
    Intermediate
    Medlem siden
    Oct 2003
    Poster
    4,886
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    DVD, BluRay, HD-DVD, digitalt bakkenett, digital parabol/kabel, Windows XP/Mac er alle begrenset til 3x8 bit fargepresisjon (8 bit pr primærfarge, totalt 24) såvidt jeg vet.

    At kabelen mellom kilde og display da har samme begrensning kan umulig være et stort problem.

    -k

  3. #3
    Newcomer
    Medlem siden
    Feb 2005
    Poster
    236
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Det var det jeg trodde. Mitt spørsmål blir da om det er noe å hente på om LCD/Plasma TV har 10 bits fargeoppløsning (eller 12 eller 13) sammenlignet med de som har 8 bits fargeoppløsning ?

    Noen som kan svare her ?

  4. #4
    Intermediate
    Medlem siden
    Oct 2003
    Poster
    4,886
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Jeg har skrevet en liten post om dette emnet:
    forum.hjemmekino.no :: Vis Temaet - Guide: Antall farger. 10bit? 30 milliarder farger?


    Q: Hvor mange farger skal det være i flatskjermen? Jeg har hørt at produsent X har 317 milliarder farger, det må da være bedre enn produsent Y som har bare 290 milliarder farger?

    A: Flatskjermer med diskrete pixler danner farger ved å sette sammen "subpixler" med primærfargene r, g og b. Ved å variere intensiteten til hver enkelt av disse vil vi oppfatte summen av disse tre som en farge. Noe ala det under:
    En hvit pixel:

    En nesten rød pixel


    Hvis hver enkelt pixel er veldig liten så vil det være plass til veldig mange av dem, og da øker vår oppfattelse av "skarphet". Dette er poenget bak hd-skjermer.

    Men hvis vi kan styre lysstyrken med nøyaktighet så har dette også betydning for bildekvaliteten. Når produsenter snakker om 8bits, 10bits, 24bits og 36bits farger så er det egentlig forskjellige måter å benevne samme fenomen på.

    Vanligvis har vi 8 bits presisjon pr subpixel (r, g eller b). Det betyr at den kan ta 256 forskjellige verdier. 0 = helt sort, eller så sort som teknologien tillater. 255 = helt mettet rød (f.eks). Når noen sier 8bit farger eller 24 bit farger så mener de sannsynligvis samme ting, bare at noen tar summen av de tre subpixlene (3x8=24). Dette er forvirrende og upresist.

    figur:
    En analog, kontinuerlig bølgeform (f.eks en linje i et videokamera) representeres med diskrete samples. Avstanden mellom hvert sample sier noe om oppløsning, mens antall trinn sier noe om presisjon.

    Et interessant poeng er at gråtoner inneholder like mengder av alle tre primærfargene. Så selv om en skjerm har "24 millioner farger" (3x 8 bit) så kan den bare representere gråtoner med 256 trinn siden r=g=b. Det viser seg at øyet er mye mer følsomt for "gråtoneverdien" (eller intensitet, luma) enn den er for farge-verdien. Så selv om 24 millioner farger kanskje er mer enn nok i seg selv, så er det et ineffektivt system fordi vi "kaster bort" mye av den numeriske oppløsningen på farger som kanskje er mindre viktig, mens vi sitter igjen med litt lite til den delen som gir intensiteten.

    Dette utnytter kompresjon som vi finner i DVD og HD-formater. De skiller ut farge og intensitet, og reduserer oppløsningen til de rene fargesignalene i forhold til det rene intensitetssignalet. Men for å vise signalet på skjerm må man konvertere tilbake til rgb.


    figur:
    UV fargerom. Ved å separere intensitet (luma) fra farge (chroma) kan vi håndtere bildet på en måte som samsvarer bedre med menneskets syn. Figuren viser kombinasjoner av "U" og "V" som lagres f.eks på en DVD-plate. Disse komprimeres betydelig røffere enn "Y" (som er en form for sort-hvit versjon av bildet). Grunnen er at vi er relativt ufølsomme for unøyaktighet i U og V, mens Y er veldig viktig for vår oppfattelse.


    figur:
    "Normalized typical human cone responses (and the rod response) to monochromatic spectral stimuli". Mennesket kan ikke "se" den nøyaktige fargen (bølgelengden) til lys. I stedet har vi 3 reseptorer for hver av tre "primærfarger" som delvis overlapper hverandre. Ved å sammenligne disse tre kan vi danne oss en mening om hva den "egentlige" fargen er. Stiplet linje viser responsen ved veldig lavt lys (hvor vi ikke har fargesyn, men disse cellene er ca 100ggr mer følsomme).

    For øyeblikket kjenner jeg ikke til noen konsument-kilder som kan levere mer enn 24bit rgb i praksis. DVD, DVB-S, PC-er og til og med kommende HD-standarder er for øyeblikket låst til 3 primærfarger på 8 bits hver. Digitale overføringer er også normalt begrenset til dette (og analoge overføringer er sannsynligvis begrenset i elektronikken som prosesserer før sending).

    Så hva skal vi med plasmaskjermer med 12 bit? Godt spørsmål. Såvidt jeg vet er disse ikke i stand til å ta inn et signal med mer enn 8bit presisjon (!). Og akkurat hva leverandøren legger i "ørten milliarder farger" er ukjent, sannsynligvis er det snakk om en marketingavdeling som har bladd igjennom tekniske spesifikasjoner til de fant det største tallet, og så ganget det med to for sikkerhets skyld.

    Men det har vært klager på "banding" i flatskjermer som er tegn på dårlig oppløsning. Kanskje skyldes det at man bruker signalbehandling med dårlig intern presisjon som fører til at man får avrundingsfeil som gir mindre enn de 8 bit man får fra kilden. Kanskje skyldes det display-panelene selv som ikke er i stand til å presentere alle 8 bits på en korrekt måte.

    For mer om økt dynamikk og fargeoppløsning, prøv å google på HDR (High Dynamic Range).

    -k

    RGB color model - Wikipedia, the free encyclopedia
    Color vision - Wikipedia, the free encyclopedia

  5. #5
    Intermediate
    Medlem siden
    Oct 2003
    Poster
    4,886
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    LCD Color: 8-Bit vs. 6-Bit

    "8-Bit vs. 6-Bit
    ...
    Since consumers were demanding faster screens, something needed to be done to improve response times. To facilitate this, many manufacturers turned to reducing the number of levels each color pixel render. This reduction in the number of intensity levels allows the response times to drop but has the drawback of reducing the overall number of colors that can be rendered.

    ...
    This is far fewer than the true color display such that it would be noticeable to the human eye. To get around this problem, the manufacturers employ a technique referred to as dithering. This is an effect where nearby pixels use slightly varying shades or color that trick the human eye into perceiving the desired color even though it isn't truly that color. A color newspaper photo is a good way to see this effect in practice. (In print the effect is called half-tones.) By using this technique, the manufacturers claim to achieve a color depth close to that of the true color displays.
    "

    -k

  6. #6
    Intermediate
    Medlem siden
    Oct 2003
    Poster
    4,886
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Jeg ser at svarene mine var litt overkill. Kort-versjon:
    *Hvis tv-en er i stand til å vise 8-bit fullt ut så mener jeg at gevinsten ved å kunne vise 10 bit eller 12 bit fullt ut er ikke-eksisterende i overskuelig framtid, simpelten fordi vi ikke får tilgang på kilder med mer enn 8 bit.

    *Hvis tv-en er dårlig designet slik at 8-bit egentlig betyr 6 bit og 10-bit egentlig betyr 8 bit så mener jeg helt klart at "10-bit" kan ha noe for seg.

    Det blir litt som å si at man bør kjøpe en bil med 200hk fordi produsentene skryter på seg og en "200hk" egentlig har 100hk.


    -k

  7. #7
    Newcomer
    Medlem siden
    Feb 2005
    Poster
    236
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)

    Smile

    Takker så mye. Det forklarte det jeg lurte på.

  8. #8
    Intermediate LL sin avatar
    Medlem siden
    Jul 2003
    Poster
    2,900
    Takk & like
    Nevnt
    1 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Kuntinh: Kan 10\12\14-bits prosessering i en TV sammenlignes med oversampling i for eksempel en cd-spiller? Det tilfører med andre ord ikke signalet noe nytt, men gjøre det lettere å behandle og beholde det opprinnelige signalet?

  9. #9
    Intermediate Joey1313 sin avatar
    Medlem siden
    Oct 2003
    Poster
    843
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Sitat Opprinnelig postet av LL
    Kuntinh: Kan 10\12\14-bits prosessering i en TV sammenlignes med oversampling i for eksempel en cd-spiller? Det tilfører med andre ord ikke signalet noe nytt, men gjøre det lettere å behandle og beholde det opprinnelige signalet?
    Det kan vel forsåvidt jeg svare på. Og det er vel ikke akkurat direkte sammenlignbart. Som du sier kan man oversample i en CD spiller for å sikre at det opprinnelige signalet beholdes. Men på en skjerm vil man ved å benytte større fargedybde enn signalet tilføre bildet informasjon som ikke er i det orginale signalet. Dette vil bidra til å viske ut graderinger, ved at bildet rett og slett blir interpolert med større fargedybde enn det som er i bildesignalet.

    Når det gjelder Knutinhs utsagn om at man ikke kan sende mer enn 8bits fargedybde med PC så er det en sannhet med modifikasjoner. ATI har allerede i flere år forsøkt å komme forbi DVI og VGA kabelens begrensning på 8bits RGB overføring. Det har dem delvis klart ved en slags subpixel rendering som etter demmes utsagn gir 10bits fargedybde v.ha. dithering som dem kaller det. Bilde prosesseringen har siden Radeon 9700 vært 10bits, (Og er vel i dag 12bit?) det er som sagt DVI kabelens begrensning som har vært problemet. I dag har man ATI kort med HDMI utganger, og ved å sende YCbCr komprimert til 4:2:2 vil man da kunne sende 12bits fargedybde til skjermen. Dual Link DVI har vel vært i stand til å sende 16bits pr.pel. siden begynnelsen?

  10. #10
    Intermediate
    Medlem siden
    Oct 2003
    Poster
    4,886
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Sitat Opprinnelig postet av LL
    Kuntinh: Kan 10\12\14-bits prosessering i en TV sammenlignes med oversampling i for eksempel en cd-spiller? Det tilfører med andre ord ikke signalet noe nytt, men gjøre det lettere å behandle og beholde det opprinnelige signalet?
    Oversampling i en CD-spiller dreier seg om å øke samplingsfrekvensen i det digitale domenet for å kunne bruke billigere analoge komponenter i D/A-konverter. Veldig mye av det som blir sagt og påstått om oversampling har ikke noen rot i den teorien jeg ble forelagt på skolebenken, og virker som ren marketing-speech.

    Oversampling benyttes forøvrig også i DVD-spillere (54MHz, 108MHz etc), sannsynligvis også der for å kunne gjøre en større del av jobben ved D/A-konvertering i det digitale domenet.

    Tenk på oversampling som det å generere nye samples mellom de eksisterende. Altså en form for interpolering. Men de eksisterende samplene har en konkret verdi som er definer som f.eks tallet 24572 eller 000002. Det er ikke mulig å gjøre denne verdien mer nøyaktig ved å si at "vi tror at denne verdien egentlig var 24572,99447711". Noe slikt ville revolusjonere informasjonsteorien og gjøre at brebånd var bortkastet, det hadde holdt lenge med modem til alle mann :-)

    10/12/14 bit prosessering går på presisjon, og ikke samplerate. Man kan ikke "oversample" seg til flere bit. Generelt er det umulig for oss utenfra å si hvordan en gitt dsp-algoritme er implementert, og hvor mange bit den krever i intern presisjon for ikke å gi artefakter. Dermed er det også uinteressant om en tv eller DVD-spiller bruker 10bit 36bit eller 256bit intern oppløsning så lenge man ikke har tilgang på en presis beskrivelse av bedrifts-hemmeligheter som de sannsynligvis holder ganske hardt på.

    For de fleste tilfeller er dette snakk om ivrige marketing-folk som har bladd igjennom spec-en fra ingeniørene og valgt ut det største tallet de fant. På samme måte som "PMPO-effekten" på elkjøp-hifi.

    -k

  11. #11
    Intermediate
    Medlem siden
    Oct 2003
    Poster
    4,886
    Takk & like
    Nevnt
    0 post(er)
    AVtorget feedback
    0
    (0% positive tilbakemeldinger)
    Sitat Opprinnelig postet av Joey1313
    Når det gjelder Knutinhs utsagn om at man ikke kan sende mer enn 8bits fargedybde med PC så er det en sannhet med modifikasjoner. ATI har allerede i flere år forsøkt å komme forbi DVI og VGA kabelens begrensning på 8bits RGB overføring. Det har dem delvis klart ved en slags subpixel rendering som etter demmes utsagn gir 10bits fargedybde v.ha. dithering som dem kaller det. Bilde prosesseringen har siden Radeon 9700 vært 10bits, (Og er vel i dag 12bit?) det er som sagt DVI kabelens begrensning som har vært problemet. I dag har man ATI kort med HDMI utganger, og ved å sende YCbCr komprimert til 4:2:2 vil man da kunne sende 12bits fargedybde til skjermen. Dual Link DVI har vel vært i stand til å sende 16bits pr.pel. siden begynnelsen?
    Jeg prøvde å komme med en kort og lettfattelig beskrivelse av situasjonen i praksis. Windows kan ikke rendre desktoppen med mer enn 32bit, hvorav 8 bit er "alpha transparency" og dermed irrelevant for vårt formål. Windows Vista vil vel endre dette (jeg tror at de skal kjøpe noe IP fra Adobe?)

    Siden alt kildemateriale for konsument-video i overskuelig framtid vil være 8-bit tror jeg ikke at dette er et problem man trenger å diskutere i særlig grad annet enn for å oppnå innsikt.

    Å bruke dithering er ikke det samme som å øke antall bits, det handler om å finne en optimal trade-off mellom opplevd presisjon og opplevd oppløsning.

    -k

Stikkord for denne tråden

Regler for innlegg

  • Du kan ikke starte nye tråder
  • Du kan ikke svare på innlegg / tråder
  • Du kan ikke laste opp vedlegg
  • Du kan ikke redigere meldingene dine
  •