Re(8): Warum funktioniert bei Browsern die garbage collection so schlecht?
Geizhals » Forum » Programmierung » Warum funktioniert bei Browsern die garbage collection so schlecht? (43 Beiträge, 1008 Mal gelesen) Top-100 | Fresh-100
Du bist nicht angemeldet. [ Login/Registrieren ]
........
Re(8): Warum funktioniert bei Browsern die garbage collection so schlecht?
19.09.2013, 22:03:27
Es ist ja immer drollig, wenn Leute Sachen schreiben wie


lieber drollig als realitätsfremd >:-D

Wieso das Alter auch nur irgendwie in einer technischen Diskussion relevant
sein soll, verstehe ich zwar nicht, aber ich verstehe ja viel nicht.

weil sich mit längerem Überblick die reine technische Begeisterung (ist schon OK + wichtig!) um eine sachlichere Beurteilung bereichert wird - man nennt das Erfahrung.

Also ich weiss ja nicht, welche HW du verwendest, aber mein Handy hat mehrere GB RAM,

hab extra nachgeschaut - maximal 3GB hab ich gefunden, ok, das ist nicht wenig, aber der Großteil der Handys hat irgendwo um die 512MB, und dort werden, weil das mit den "mobil optimierten Seiten" IMHO ein ziemlich zahnloser Bluff ist, Browser mit zu schwerer Kost belastet: ein Firefox am Handy ist natürlich schön, aber in der Praxis ist die Hardware damit + vielen realen Seiten überfordert, siehe Ausgangspunkt dieses Threads.

  und verwendet ausserdem einen auf die mobile Plattform speziell
zugeschnittenen Browser, der sich anders als jener auf dem Desktop verhaelt.

fein: da hätten wir zB den Android-Browser, mit dem man so lala leben kann, Dolphin, der ganz nette Sachen kann, die auf dem kleinen Display eigentlich nutzlos sind (auf Tablets, die meist auch nicht signifikant stärker als Handys sind - meinetwegen), sowie eben Chrome und FF. Soll ich jetzt bei jeder 2. Seite austesten, mit welchem Browser der break-even zwischen Funktionalität und fades-Aug-Faktor grade verläuft? ... Ja ... mit 28 hatte ich auch noch die Zeit, Lust und Nerven für sowas.
Fällt dir was auf? Handys leben von pfiffigen, angepaßten Apps, die sich auf ein paar Funktionen konzentrieren, nicht auf Runtimes (Browser) die alles können, aber ständig Bugreports und neuen Möchtegernstandards hinterher hecheln.

  Mein Laptop bootet heutzutage (trotz FDE) in einem Bruchteil der Zeit als
mein erster Laptop in den 90ern, desgleichen starten alle Applikationen
wesentlich schneller.

schön - und jetzt vergleich einmal, wie sehr sich der PC in diesen 15 Jahren verändert hat: Wenn man es genau betrachtet: minimal.
Und wie sehr die Leistung? Faktor bei RAM einige 100-1000 (16MB -> 16GB) , bei CPU, ausgehend von Moore's Law: 180Monate = 10*18 Monate (jeweils Verdoppelung) = 2^10 = ebenfalls Faktor 1000, dazu die ganzen Coprozessoren für Audio, Graphik, 3D und Video, die damals teils noch die CPU schultern mußte.
Ist dein Boot auch nur um den Faktor 100 schneller geworden? Realistisch vielleicht um Faktor 10 (20sec gegenüber 3min). Wo ist der Rest der Beschleunigung hin? Bist du um Faktor 100 produktiver / schneller / effizienter als damals? Abgesehen davo,  siehe "Amdahls Law", ist das nur ein Teilaspekt, und der Boot von Windows happert schlicht an der Unfähigkeit des Filesystems, sich selbst und die Ladereihenfolge und Parallelisierung von Diensten zu optimieren, was jetzt halt mit SSDs erschlagen wird. Daß die Zugriffszeit von mechanischen HDDs DER Klumpfuß jeder Architektur ist, war immer ein offenes Geheimnis, die ständig ansteigende Fragmentierung von NTFS nur mehr das Salz in der Wunde.

Ja, number crunching (rendering, 3D, Video Kompression, Verschlüsselung, ...), alles, was man in Hardware abbilden oder gut parallelisieren kann, funktioniert schneller, aber nicht der Desktop/die GUI, dort fressen eyecandy, bloatware, Anti-Malware, Firewalls, Überwachungsfunktionen, unzählige Software-Layer, Scriptsprachen, P-code, just-in-time-Compiler, Debugging-Überreste usw. die reine CPU-Leistung weitgehend wieder auf. Was für ein Fortschritt. Sicher. Beachtlich, aber längst nicht die reale Steigerung, die man sich hätte erwarten dürfen.

Ich erinnere an BeOS, das genau damals aufgezeigt hat, was mit Dual-CPU-Systemen (PII-300 oder PPC601) machbar war, wenn man von Anfang an eine saubere API auf die Beine stellt und optimiert, und keinen Rucksack Rückwärtskompatibilität mitschleppt, der einem die Marktmacht sichert, während man alle 2-3 Jahre einen Paradigmenwechsel in den Core-Libraries (C++, MFC, WFC, .NET, .NET 2.0, ...) feiert, den man dann ebenfalls mitschleppen muß, um Großkunden, die darauf zwangsweise (=mangels Portierungsalternativen) gesetzt haben, nicht zu verärgern ...  >:-(  

Dann will ich noch kurz ein bisschen technisch werden:
Ich WILL, dass mein Browser jedes MB an RAM verwendet das es gibt.

verwenden oder verSCHwenden?

  Falls er zuviel RAM nutzt, wird das OS das managen, und selten benutzten
Speicher in den virtuellen verfrachten - zugusten von Programmen, die den RAM
wirklich brauchen (oft zugreifen).

jo. man sieht ja, wie gut die Scheduler und das Speichermanagement funktionieren.


Sicher: die Zeiten von Amiga & Co sind vorbei, aber schau dir einmal an, was man damals aus den Kisten rausgeholt hat! Natürlich ist es schön, daß Programmierung inzwischen um Größenordnungen einfacher geworden ist, aber wir sind WEIT entfernt von einem guten Mittelmaß zw. Aufwand und Nutzen.

Antworten PM Alle Chronologisch Zum Vorgänger
 
Melden nicht möglich
. Vom Autor zurückgezogen oder Autor hat seine Registrierung nicht bestätigt  (^L^ am 29.08.2013, 23:05:59)
. Vom Autor zurückgezogen oder Autor hat seine Registrierung nicht bestätigt  (thE am 30.08.2013, 16:50:20)
 

Dieses Forum ist eine frei zugängliche Diskussionsplattform.
Der Betreiber übernimmt keine Verantwortung für den Inhalt der Beiträge und behält sich das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.
Datenschutzerklärung