stable/updates - debian
Geizhals » Forum » Linux-Support » stable/updates - debian (37 Beiträge, 547 Mal gelesen) Top-100 | Fresh-100
Du bist nicht angemeldet. [ Login/Registrieren ]
.
Re: stable/updates - debian
24.04.2012, 00:23:25
Das ist einfach der Pfad:

ftp://security.debian.org/debian-security/dists/stable
( deb ftp://security.debian.org/   stable/updates main contrib non-free )
vs.

ftp://ftp.de.debian.org/debian/dists/squeeze-updates/
( deb ftp://ftp.de.debian.org/debian  squeeze-updates main contrib non-free )

ftp://ftp.de.debian.org/debian/dists/squeeze/
( deb ftp://ftp.de.debian.org/debian  squeeze main contrib non-free )

oder

ftp://ftp.de.debian.org/debian-security/dists/stable
( deb ftp://ftp.de.debian.org/debian-security  stable/updates main contrib non-free )

Was es auf welchem Server für welches Archiv gibt, kann ich nicht so genau sagen. Ich schätze mal, dass häufig einfach viele Kombinationen zur Verfügung gestellt werden (mit Symlinks) damit man nicht so lange herumprobieren muss. ;-)



ACTA wird Menschen töten | wikileaks.geizhals.org


„Ich habe den Verdacht, dass sich alle Terrorismen, egal, ob die deutsche RAF, die italienischen Brigate Rosse, die Franzosen, Iren, Spanier oder Araber, in ihrer Menschenverachtung wenig nehmen. Sie werden übertroffen von bestimmten Formen von Staatsterrorismus“ (Helmut Schmidt)

"Ermittlungen in großen Wirtschaftsstrafsachen unterliegen wegen der Berichtspflichten der Ermittler zum Innen- und Justizministerium vollends dem politischen Würgegriff" (N. Haslhofer, ehem. StA)
24.04.2012, 00:23 Uhr - Editiert von mjy@geizhals.at, alte Version: hier
Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
.......
Re(7): stable/updates - debian
24.04.2012, 19:53:21
Ein generischer (wenn auch validierender) Parser ist da imho so gut wie wertlos. Mag ja sein, dass ich damit meine Config bequem auf syntaktische Korrektheit und passende Typen pruefen kann - aber das macht das Syntax Highlightning meines Editors eigentlich genau so gut.

In Wahrheit ist es doch so, dass die Konfiguration eines komplexen Dienstes viel subtiler falsch sein kann, als mir eine DTD (oder halt ein Relax-NG Schema oder was immer es heute gibt - XML ist schon eine Weile nicht mehr so hip, dass ich da auf Stand zu sein behaupte ;)) das zu pruefen oder zu formulieren ermoeglicht. Insofern sind fall- und anwendungsspezifische Tools wie z. B. `apachectl -S`, die die Konfiguration des Dienstes, mit dem sie mitgeliefert werden, in gewissem Masze auch "verstehen", bewerten und deren Auswirkungen verstaendlich darstellen bzw. aufbereiten koennen, einem einfachen lint-Programm (auch wenn ein XML-Parser klarerweise technisch nicht gar so einfach ist ;)) die viel sinnvollere Loesung.

Klar KOENNTE man das auch mit irgendeiner XML-Serialisierung der Konfigurationsdaten machen, und man wuerde sich ein bisschen Aufwand sparen, den Lexer/Parser/Validator/Interpreter fuer das "eigene" Dateiformat zu implementieren, aber einen wirklich substantiellen Vorteil hat das alles aus meiner Sicht nicht. Ich bin jedenfalls jedes Mal heilfroh, wenn mir beim Oeffnen einer Konfigurationsdatei in vim kein XML entgegenkrabbelt - pfui! ;)

Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
........
Re(8): stable/updates - debian
24.04.2012, 20:43:22
Ein generischer (wenn auch validierender) Parser ist da imho so gut wie
wertlos. Mag ja sein, dass ich damit meine Config bequem auf syntaktische
Korrektheit und passende Typen pruefen kann - aber das macht das Syntax
Highlightning meines Editors eigentlich genau so gut.


Es geht in meinem Anwendungsfall auch um mitgelieferte Konfigurationsdateien, und bei Hot-Deployment hat man da schon üble Überraschungen erlebt. Deshalb wird das Zeugs jetzt zumindestens soweit gecheckt als das man sagt "ok, XML Syntax passt, auch wenn Müll drinsteht".

Klar ist sowas wie apachectl optimal, aber Apache ist ja auch für den HA Einsatz ausgelegt da darf einfach kein grober Fehler sein. Ich seh da immer den bei uns oft eingesetzten JBoss, das ist für uns Admins nicht zu kontrollieren was da reinkommt oder was draußen bleiben muß - wir gehen stur nach dem mitgelieferten Dokument und da sind generische Parser schon eine Hilfe - sowas wie apachectl natürlich explizit gut, da er ja auch sowas wie doppelt vergebene vhost-Namen checkt.

Also ich bin mit XML immer ganz gut gefahren (auch wenn ich jetzt bei meinem privaten Projekt ein XML-Problem hab ;) ), es ist halt sehr generisch, da liegt sein großer Vorteil aber auch sein großer Nachteil drin.

Von Admin-Seite aus sind mir persönlich CSV ähnliche Configfiles wie passwd z.b. am liebsten, das kannst mit einem einfachen awk schnell parsen und mußt ned viel nachdenken |-D.

lg.


Thou shalt not use the phrase "this should be simple" unless thou has confirmed it as such.
Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
..........
Re(10): stable/updates - debian
25.04.2012, 13:53:30
XML ist fuer sowas grundsaetzlich einfaches wie preislisten kein sinnvolles
format.


Dazu kenn ich zuwenig die Specs die ihr da übermittelts (oder übermittelt bekommts).

streng nach spec gibt's keine fehlertoleranz, z.b. kaputtes encoding. ein
falsches zeichen und es duerfte nach spec komplett nicht geparst werden. das
ist praktisch total egal, eine zeichenkraxn in ein paar 1.000 (oder hier auch
in ein paar millionen) eintraegen ist belanglos, und jedenfalls weit weniger
schlimm als veraltete information weil die aktuelle liste nicht geparst werden
kann.


Da frag ich mich aber wie die Listen generiert werden. Weil "normal" - wenn das alles maschinell passiert - dürfts garkeine Fehler geben. Aus vielen DBs kann man AFAIK schon direkt in XML die Ausgabe erstellen etc. Wie gesagt für euren Fall weiß ich nicht wirklich was ihr da übermittelts bzw. wie das auszusehen hat.

Aber das hättest ja ebenso bei anderen Formaten. Wenn (ich geh jetztmal von dem worst-case .ini Beispiel aus) dort eine Section falsch formattiert ist, stimmen ebensowenig die unteren Einträge und einen Parser wirds ebenso aufklatschen.

dazu kommt unnoetiger overhead durch das markup (MOAR BYTES!) und das
aufwaendigere parsen (RAM, CPU, fehleranfaelligere software).


Gut Overhead.. naja ist sicherlich ebenso zu berücksichtigen, da hab ich aber ned wirklich viele Beispiele oder Daten im Kopf wie sehr der Overhead zum "Kropf" hier wird.


Thou shalt not use the phrase "this should be simple" unless thou has confirmed it as such.
Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
............
Re(12): stable/updates - debian
25.04.2012, 14:40:20
beruehmte letzte worte.

XML geht wenn alle beteiligten wissen was sie tun und dabei keine fehler
machen. schoenes konzept, aber ausgesprochen praxisfern.


hehe :).

Mir prinzipiell aber unklar wo da soviel Fehler entstehen können ehrlich gesagt. XML ist doch recht verständlich aufgebaut.

man kann fuer vieles fehlertolerante parser schreiben. bei XML ist halt laut
spec fehlertoleranz ausgeschlossen, das macht es fuer sachen, bei denen es
nicht noetig ist dass immer alles fehlerfrei funktioniert nicht wirklich
brauchbar. in der praxis kann man bei den meisten XML parsern gewisse
toleranzen einschalten, dann stellt sich halt wieder die frage "warum dann
ueberhaupt XML"?


Warum XML ist prinzipiell eine gute Frage. Warum nicht Datenbankdumps durch die Gegend schicken, die würden ja prinzipiell immer stimmen, warum kein Excelfile parsen ? Das was ich jetzt aus der Praxis kenne - und da nutze ich XML sicher nicht so intensiv, bzw. sind die XML alle aus einer Quelle bzw. von einem Programm generiert, ist es einfach am praktischsten. Unsere Infrastruktur arbeitet sehr viel mit einem SOAP-ähnlichen Messageprotokoll. Da ist XML einfach unglaublich praktisch, egal was als Response daherkommt, ich kanns gut verpacken und weiterverarbeiten und auch nocht so, das wenn Fehler auftreten man den Fehler auch als Mensch sehen und untersuchen kann.

je nach phantasie bei markup kann die datei schon mal doppelt so gross werden.
DOM parser lesen die dateien vollstaendig ein und baun den parse tree draus,
RAM ohne ende (gegenueber kaum RAM bei z.b. CSV). das kann man mit SAX parsern
umgehen, die sind aber wieder umstaendlich zu handhaben


DOM nutze ich weder priv. noch beruflich, ist zwar sehr praktisch, aber nach etwas Übung mit einem SAX Parser bekommt man das auch gut hin.

Wie ich weiter oben schon schrieb: Von Sysadminseite aus ist mir CSV eh am liebsten, es ist einfach am praktischen auf unixoiden diese weiter zu verarbeiten.

lg.


Thou shalt not use the phrase "this should be simple" unless thou has confirmed it as such.
Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
 

Dieses Forum ist eine frei zugängliche Diskussionsplattform.
Der Betreiber übernimmt keine Verantwortung für den Inhalt der Beiträge und behält sich das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.
Datenschutzerklärung