Verdrehte HDR Parameter?
-
-
was dann wohl auch so sein soll.
-
Hier ist definitiv nichts verdreht.
Laut Code auch nicht.
Ich denke du hast die Einstellungen geändert, aber das Menü nicht weit genug geschlossen.. bzw. enigma2 nicht neu gestartet.
Das passt definitiv.
cya
-
-
Ich kann die Meldung des Themenerstellers nachvollziehen, siehe Anhänge.
ect_enigma2_settings_av_osd mit 12bit_nein 10bit_ja.txt
dmesg hdmi_cec osd mit 12bit_nein 10bit_ja.txtect_enigma2_settings_av_osd mit 12bit_ja 10bit_nein.txt
dmesg hdmi_cec osd mit 12bit_ja 10bit_nein.txt -
Also ich kann das definitiv nicht nachvollziehen.
In einem telnet Fenster habe ich journalctl -f laufen (oder halt per mini usb logging)
Und schalte ich hier im AV Setup "Erlaube 12bit" auf aus.. kommt sofort die Meldung das 10bit verwendet wird. Schalte ich dann noch 10bit aus.. gibts den fallback auf 8bit.
Schalte ich dann 12bit wieder an, kommt auch die Meldung dass 12bit verwendet wird. Usw...
Keine Ahnung was da bei euch passiert. Aber der Code ist korrekt und die er tut exakt was er soll.
Das ganze funktioniert aber auch nur, wenn der TV auch 12bit und 10bit kann. Wobei 12bit uninteressant ist.. und man es eigentlich ausschalten kann. Weil es gar keinen Bildmaterial gibt, was 12bit liefert.
Die dmesg Ausgaben vom booten der Box bringen da übrigens wenig. Weil erst wenn die Software komplett läuft.. also enigma2 läuft die Einstellung ggf. übernommen wird.
Direkt beim booten wird erstmal das "best" mögliche verwendet.
cya
-
naja, ich hatte in den settings wegen was anderem geschaut und da fiel mir das auf, dass 12 bit auf 1 war und 10 bit auf 0.
kam mir komisch vor, weil ich vor einiger zeit, als ich mit hdr rumspielte, in der gui 10 bit auf 1 und 12 bit 0 gestellt hatte... war auch noch so.
aber egal... habe eh keinen unterschied festgestellt, ob ich nun 10 oder 12 bit aktiviere.
nur wenn ich beide deaktiviere schaltet der tv nicht mehr auf hdr/hlg.
p.s. in den settings direkt habe ich nie direkt was veraendert nur ueber die gui. -
Damit alpha nicht dumm sterben muss...
Codeconfig.av.allow_12bit = ConfigSelection(default = "0", choices = [ ("0", _("yes")), ("1", _("no")) ]); config.av.allow_10bit = ConfigSelection(default = "0", choices = [ ("0", _("yes")), ("1", _("no")) ]);
Nun wird auch er kapieren dass das schon immer so ist und korrekt. Frag mich wieso er sich in Dinge einmischt die er scheinbar selbst gar nicht nutzt... -
nun, da muss ich alpha ausnahmsweise recht geben... für mich wäre rein logisch 0 auch NO und 1 = YES...
-
Der /proc Parameter heißt aber disable_10bit bzw. disable_12bit und da wird genau die 0 oder 1 reingeschrieben
-
Wir könnten ja auch mal Fake News in den Raum stellen:
Pro Fehlermeldung im DP Board kriegst du eine VUnderbox Zero gratis
Für jede falsche Fehlermeldung musst du sie dann mit dem Originmalimage betreiben
-
-
es mag unlogisch tönen. aber letztlich sollte sich der user doch gar nicht darum kümmern müssen, was in der settings steht.
-
Für alpha ist aber alles unlogisch in DreamOS...und wenn man keine Ahnung hat und unwillig sich zuerst ins DreamOS einzuarbeiten bevor man in die Tiefe geht, sollte man solche Posts lassen, um nicht andere User(!!) noch mehr zu verwirren...
-
na, dann ist das ja auch geklaert... der config parameter muesste also ..._disable_ heissen.
danke fuer die erklaerung. -
Nö, müsste er nicht, weil der Dev entscheidet, wie der interne Werte und die Beschreibung auf dem GUI heisst.