Der Informatikerkeller (Tech-Laberei)

    • VP9 ist der Videocodec. nVidia-Karten können das seit Maxwell (also der 9xx-Generation) und Chromium-Browser seit 54. Wie es in anderen Browsern aussieht, weiß ich allerdings nicht. Kurzes Querlesen hat allerdings offenbart, dass es scheinbar nicht immer auf Anhieb klappt. Ich bin mir recht sicher, dass es bei mir tut, denn ich habe keine besonders hohe Auslastung bei 4k Videos bemerkt bzw. dass das System nebenbei irgendwie träg(er) werden würde.
    • Wir sind ja mittlerweile extrem offtopic (was auch passt ^^) - und ich bin mir sicher dass das niemals jemand hier sehen wird - welcher Normalo sieht in einen Post der zwei Fremdwörter und Verzweiflung im Titel hat XDD
      _______________________________________________________________________
      Wo viel Licht ist, ist starker Schatten. -Johann Wolfgang von Goethe
    • Ja, ist mehr ein allgemeiner Computertech-Talk geworden :D
      Vielleicht sollte man den Titel anpassen, wenn es für dich okay ist.

      Ich hab gestern mal getestet. Aktuelle Vivaldi Version (basiert auf Chromium): CPU Auslastung steigt nie über 10% (für alles zusammen). Also bei mir macht es definitiv die Grafikkarte.
    • Kinman schrieb:

      Ja, ist mehr ein allgemeiner Computertech-Talk geworden :D
      Vielleicht sollte man den Titel anpassen, wenn es für dich okay ist.

      Ich hab gestern mal getestet. Aktuelle Vivaldi Version (basiert auf Chromium): CPU Auslastung steigt nie über 10% (für alles zusammen). Also bei mir macht es definitiv die Grafikkarte.
      Ich hoffe der Titel passt, außer du hast noch einen geileren :D :P

      Hab gestern nachgesehen, hab die neuste Chrome Version, Youtube bestätigt die Kompatibilität mit VP9. Bei nem 4K@24fps Video ca. 25% CPU Auslastung :I
      _______________________________________________________________________
      Wo viel Licht ist, ist starker Schatten. -Johann Wolfgang von Goethe
    • Kinman schrieb:

      Titel passt gut. Probier mal eine Videodatei. Wenn das auch über die CPU geht, dann scheint es eine Treibersache/Einstellungssache zu sein. Wenn das klappt, dann liegt's irgendwie am Stream.
      Dankö werd ich probieren ^^
      _______________________________________________________________________
      Wo viel Licht ist, ist starker Schatten. -Johann Wolfgang von Goethe
    • Weil ich das hier gerade überflogen habe; Docker ist kein Hypervisor. Es ist keine Virtualisierungstechnik, sondern eine andere Art der Bereitstellung und Ausführung von Software.

      Wenn du alles spielen möchtest ohne Performanceprobleme, ohne Stabilitätsprobleme, ohne Einbußen in der Grafik und ohne Frickelei mit Treibern, Config Dateien und ähnlichem, kommst du nicht drum herum Windows nativ auf deinem Rechner laufen zu lassen. Das größte Problem an Virtualisierungslösungen ist die korrekte DirectX Unterstützung. Die ist nämlich nicht in jedem Fall gegeben. Qemu dürfte alles nach DX9 (noch) nicht unterstützen. Am weitesten kommst du mit VMware Workstation Player, der, meines Wissens nach, zumindest schon mal DX10 unterstützt. In jedem Fall aber kosten Abstraktionsschichten immer Leistung in Spielen und ich spreche hier von Werten die 5% deutlich übersteigen.
    • Balalaika schrieb:

      Weil ich das hier gerade überflogen habe; Docker ist kein Hypervisor. Es ist keine Virtualisierungstechnik, sondern eine andere Art der Bereitstellung und Ausführung von Software.

      Wenn du alles spielen möchtest ohne Performanceprobleme, ohne Stabilitätsprobleme, ohne Einbußen in der Grafik und ohne Frickelei mit Treibern, Config Dateien und ähnlichem, kommst du nicht drum herum Windows nativ auf deinem Rechner laufen zu lassen. Das größte Problem an Virtualisierungslösungen ist die korrekte DirectX Unterstützung. Die ist nämlich nicht in jedem Fall gegeben. Qemu dürfte alles nach DX9 (noch) nicht unterstützen. Am weitesten kommst du mit VMware Workstation Player, der, meines Wissens nach, zumindest schon mal DX10 unterstützt. In jedem Fall aber kosten Abstraktionsschichten immer Leistung in Spielen und ich spreche hier von Werten die 5% deutlich übersteigen.
      Braucht man denn einen (D)AL wenn man auf dem Grundsystem(Linux) die IGP und per Passthrough die GPU auf das virtualisierte System anbindet?
      Die GPU sollte somit ja nicht virtualisiert werden sondern direkt an Win10 angebunden sein oder?
      _______________________________________________________________________
      Wo viel Licht ist, ist starker Schatten. -Johann Wolfgang von Goethe
    • Du stellst dir das wie einen Wasserbehälter vor, bei dem du den Verschluss öffnest und das Wasser fällt einfach durch bis zur Schüssel darunter. Tatsächlich verhält es sich aber eher so wie in einem Chemielabor. Das Wasser muss erst durch X Zwischeninstanzen, um in der Schüssel zu landen. Das Durchreichen (passthrough) muss doch von irgendeiner Institution technisch vorgenommen werden. Es muss also etwas da sein was vermittelt, was dem Linux System erklärt: "Windows schreibt hier Anweisung XYZ. Du bist aber ein Linux, warte, dann muss ich dir das übersetzen. Also, Windows meint Anweisung ZYX! Mach mal, ich warte - das Ergebnis gebe ich dann übersetzt wieder an Windows zurück." Oder DirectX meint das und das, in OpenGL bedeutet das dies und jenes. Passthrough heißt nur, dass die tatsächlich vorhandene Hardware am Ende genutzt werden soll und eben keine künstlich emulierte (die sich so und so verhalten und nur bestimmte Features mitbringen soll). Das passiert nie wirklich auf direktem Wege, sondern immer durch eine Vermittlungsschicht hindurch und genau das kostet die Leistung - ein oder mehrer Zusatzschritte.

      Das ist derzeit technisch nicht anders möglich und vermutlich auch ein Stück weit genau so gewollt. Denn würde man Abstraktionsschichten verschwinden lassen, hätte man unter anderem auch keine Isolierung zwischen den virtuellen Maschinen und dem Host System mehr. Man müsste sich dafür also dann etwas Anderes einfallen lassen.
    • Balalaika schrieb:

      Du stellst dir das wie einen Wasserbehälter vor, bei dem du den Verschluss öffnest und das Wasser fällt einfach durch bis zur Schüssel darunter. Tatsächlich verhält es sich aber eher so wie in einem Chemielabor. Das Wasser muss erst durch X Zwischeninstanzen, um in der Schüssel zu landen. Das Durchreichen (passthrough) muss doch von irgendeiner Institution technisch vorgenommen werden. Es muss also etwas da sein was vermittelt, was dem Linux System erklärt: "Windows schreibt hier Anweisung XYZ. Du bist aber ein Linux, warte, dann muss ich dir das übersetzen. Also, Windows meint Anweisung ZYX! Mach mal, ich warte - das Ergebnis gebe ich dann übersetzt wieder an Windows zurück." Oder DirectX meint das und das, in OpenGL bedeutet das dies und jenes. Passthrough heißt nur, dass die tatsächlich vorhandene Hardware am Ende genutzt werden soll und eben keine künstlich emulierte (die sich so und so verhalten und nur bestimmte Features mitbringen soll). Das passiert nie wirklich auf direktem Wege, sondern immer durch eine Vermittlungsschicht hindurch und genau das kostet die Leistung - ein oder mehrer Zusatzschritte.

      Das ist derzeit technisch nicht anders möglich und vermutlich auch ein Stück weit genau so gewollt. Denn würde man Abstraktionsschichten verschwinden lassen, hätte man unter anderem auch keine Isolierung zwischen den virtuellen Maschinen und dem Host System mehr. Man müsste sich dafür also dann etwas Anderes einfallen lassen.

      Das was ich meine scheint noch in seinen Kinderfüßen zu stecken: nvidia.com/object/dedicated-gpus.html aber für so etwas gibt es doch auch das bereits vorhandene VT-d von Intel.

      Ich lasse mich gerne eines Besseren belehren, aber soweit ich das von den bisherigen Diskussionen mit Linux Sysadmins und auch auf dieversen Seiten verstanden hatte, handelt es sich hier tatsächlich um ein natives Passthrough.

      Link: software.intel.com/sites/defau…5/vt-directed-io-spec.pdf auf S. 20

      Meines Wissens entfällt doch somit die besagte Abstraktionsschicht zwischen den Linux/Windows Instruktionen und an DX kommst du doch schon auf Windows-Basis nicht vorbei bzw. ist es ja auch der Hauptgrund wieso ich Windows benötige... oder?
      _______________________________________________________________________
      Wo viel Licht ist, ist starker Schatten. -Johann Wolfgang von Goethe
    • VT-d funktioniert nur korrekt mit bestimmten Prozessor- und Mainboardkombinationen. Das Zielfeld Intels ist hierbei der wirtschaftliche Bereich. Ist also fraglich ob wir "Normalsterblichen" an brauchbares VT-d überhaupt rankommen. Nicht jeder i5 und i7 kann es und nicht jedes BIOS oder EFI lässt es zu.

      Wie dem auch sei; nehmen wir mal an, wir haben alles was dafür nötig ist. Dann siehst du zB. in der Zeichnung, die du gepostet hast, dass der Verkehr dennoch durch den VMM (und die DMA-Remapping Hardware) muss. Das heißt, da passiert irgendwas. Da werden zB Interrupts umgebogen. Weiß der Teufel was da drin im Detail noch für Voodoo abläuft. Dürfte allerdings tatsächlich effizienter sein als bei einer herkömmlichen VM Lösung. Hat nur einen Haken. VT-d sieht vor, dass die Hardware der virtuellen Maschine exklusiv zur Verfügung gestellt wird. Das heißt, dein Host System kann dessen Ressourcen dann nicht mehr nutzen. Oder plump gesagt, du bräuchtest eine extra CPU (oder Netzwerkkarte oder was auch immer) für deine VM, in deinem Rechner. Ich weiß nicht ob VT-d auch auf einzelne Rechenkerne angewandet werden kann - macht zumindest nicht den Eindruck.
    • Möglich dass die das können. Weiß ich nicht. Frage ist dann aber weiterhin ob auch das Mainboard die Technologie unterstützt.

      Was die Transparenz angeht; die Zeichnung da oben sagt etwas anderes. Aber wie gesagt, ich denke schon, dass VT-d am Ende effektiver ist. Vielleicht so effektiv, dass man nichts mehr merken würde.
    • Die Zeichnung sagt doch genau das aus. Das heißt nicht, dass nichts passiert, aber die VM und vor allem der Treiber merkt davon nichts und darum funktioniert es dann auch.

      Aber ich würde ein natives OS zum Spielen immer noch vorziehen.
    • Vielleicht verstehen wir unter "transparent" etwas anderes. Linke Seite: Kommunikation zwischen Device A und Device A Driver sowie Device B und Device B Driver. Das ist für mich transparent. Bei einer transparenten Kommunikation auf der rechten Seite müssten die Pfeile zwischen den Devices und den Treibern direkt zueinanderführen. Sie passieren aber stattdessen zwei Instanzen. Die DMA-Remapping Hardware, die etwas tut, und den VMM bzw. das OS mit dem VMM darauf. Auch da passiert nochmal etwas. Wahrscheinlich einfach die Einspeisung der DMA Anweisungen oder irgendein anderer Kleinkram.
    • Balalaika schrieb:

      Vielleicht verstehen wir unter "transparent" etwas anderes. Linke Seite: Kommunikation zwischen Device A und Device A Driver sowie Device B und Device B Driver. Das ist für mich transparent. Bei einer transparenten Kommunikation auf der rechten Seite müssten die Pfeile zwischen den Devices und den Treibern direkt zueinanderführen. Sie passieren aber stattdessen zwei Instanzen. Die DMA-Remapping Hardware, die etwas tut, und den VMM bzw. das OS mit dem VMM darauf. Auch da passiert nochmal etwas. Wahrscheinlich einfach die Einspeisung der DMA Anweisungen oder irgendein anderer Kleinkram.
      Wie auch schon oben gepostet: software.intel.com/sites/defau…5/vt-directed-io-spec.pdf

      Siehe Kapitel 3 für DMA-Remapping
      [...] The remapping architecture allows hardware implementations supporting a single PCI segment groupto expose (to software) the remapping function either as a single hardware unit covering the entirePCI segment group, or as multiple hardware units, each supporting a mutually exclusive subset ofdevices in the PCI segment group hierarchy. For example, an implementation may expose aremapping hardware unit that supports one or more integrated devices on the root bus, andadditional remapping hardware units for devices behind one or a set of PCI-Express root ports. Theplatform firmware (BIOS) reports each remapping hardware unit in the platform to software. [...]


      Grundsätzlich supporten nahezu alle Z-Chipsätze der letzten fünf Jahre sicher VT-d. Und ja, man hat (wie bei meinem aktuellen 4670k) früher mit offenem Multiplikator (k-Prozessor) keinen VT-d Support gehabt. Dem bin ich mir bewusst und ich würde in diesem Falle dann auch auf eine neuere Plattform umstellen (Ryzen 7 oder neusten i7).

      Wie Kinman bereits gesagt hat hats Intel mittlerweile "geschafft" VT-d auch auf k-Prozessoren zur Verfügung zu stellen.

      Was die Core/CPU-Virtualisierung betrifft bin ich selbst nicht sicher. Angeblich kann man über KVM Coreweise dem virtualisierten OS Leistung zuweisen: serverfault.com/questions/3133…l-to-physical-cpu-mapping
      _______________________________________________________________________
      Wo viel Licht ist, ist starker Schatten. -Johann Wolfgang von Goethe
    • Balalaika schrieb:

      Vielleicht verstehen wir unter "transparent" etwas anderes. L
      Transparent bedeutet i.d.R. dass die Software (in diesem Fall der Treiber) nicht wissen bzw. nicht beachten müssen, dass da drunter etwas anders läuft als gewöhnlich.

      Vereinfach wäre zum Beispiel eine VPN für einen simplen File Transfer über die Netzwerkumgebung transparent. Der File Transfer merkt nicht, dass er nicht nur über ein LAN ausgeführt wird. Das heißt nicht, dass die Daten nicht anders behandelt werden (unterhalb des File Transfers) oder dass es langsamer ist, sondern eben nur, dass die ausführende Software alles so macht, wie gewohnt.
    • Benutzer online 1

      1 Besucher