Hardware-accelerated Web-Browsing

Aus Wiki
Wechseln zu: Navigation, Suche

Im Web zu browsen kann auf älteren Rechnern ein Geduldspiel sein, selbst wenn eine große Internet-Bandbreite zur Verfügung steht. Grund hierfür ist der vergleichsweise hohe Bedarf an Rechenzeit für die Darstellung einer Webseite auf dem Bildschirm.

  1. Die ankommenden HTTP-Daten müssen zunächst aus dem TCP-Datenstrom rekonstruiert werden.
  2. HTTP-Daten kommen i.d.R. komprimiert (gzip,deflate) und müssen entsprechend entpackt werden.
  3. Die als Text ankommende Webseite muss als XML/DOM geparst werden.
  4. Die Elemente müsse interpretiert und auf dem Canvas platziert werden.
  5. Ggf. müssen noch Styles (CSS) abgefragt, interpretiert und angewendet werden.
  6. Bilder müssen abgerufen und dekodiert werden.

Beispiel Chromium

Wie man an den Paketabhängigkeiten von Chromium erkennen kann, wird zum Parsen des DOM Expat und zum Decodieren von JPEGs libJPEG verwendet. Diese beiden Bibliotheken erfüllen modular rechenaufwendige Teilaspekte des Webseiten-Renderings und bieten sich somit als Ansatzpunkt für Beschleunigung an.

Hardware-accelerated JPEG decoding

(ohne die GPU)

Meine Werkzeuge
Namensräume
Varianten
Aktionen
Navigation
Werkzeuge