Zur Version mit Bildern
freiesMagazin  März 2010 (ISSN 1867-7991)
Topthemen dieser Ausgabe
Mandriva Linux 2010
Am 3. November 2009 hat Mandriva S. A. wie angekündigt die neue Version der gleichnamigen Linux-Distribution Mandriva Linux 2010 veröffentlicht. Glaubt man den Release Notes, so wird die neue Version alle anderen Distributionen in den Schatten stellen, und in der Tat sind neben den üblichen Aktualisierungen einige interessante Neuerungen dabei - allen voran der smarte Desktop. (weiterlesen)

Pimp my Desktop
Die Arbeitsoberfläche der Linux Desktops ist von Haus aus eine Wüste, die zu 5 % aus Panels, Menüs und Startern besteht und zu 95 % ein Hintergrundbild ohne weitere Information oder Funktion zeigt. Viele Anwender sind mit diesem Zustand zufrieden, andere wünschen sich mehr Inhalt auf der Oberfläche. In dem Artikel werden Maßnahmen beschrieben, um den Informationsgehalt des Desktops zu erhöhen und ihn optisch ansprechender zu gestalten. (weiterlesen)

Die Z-Shell (zsh) - Eine mächtige Alternative zur Bash
Die Standardshell auf den meisten Linux-Systemen ist die Bash. Sie ist sehr mächtig und erlaubt es, viele Aufgaben zu automatisieren. Dieser Artikel soll sich einer sehr interessanten, noch mächtigeren Shell widmen, der Z-Shell - kurz zsh. (weiterlesen)

Zum Index

Inhalt


Linux allgemein
Mandriva Linux 2010
Der Februar im Kernelrückblick

Anleitungen
Pimp my Desktop
Eigene Paketquellen zusammenstellen
mit local-apt


Software
Die Z-Shell (zsh) - Eine mächtige
Alternative zur Bash

Google Charts - Diagramme über das
Internet erstellen

Vim und das Surround-Plug-in
Effektives automatisiertes Bearbeiten
von Daten mit sed


Community
Rezension: GIMP - kurz & gut
Rezension: Python - kurz & gut

Magazin
Editorial
Leserbriefe
Veranstaltungen
Vorschau
Impressum
Zum Index

Editorial

Open Source in verschiedenen Variationen

Open Source ist böse

Bewegte letzten Monat noch die Zugriffssperrung gewisser Staaten auf den Quellcode, der bei SourceForge [1] lagert, die Gemüter (siehe „Editorial“, freiesMagazin 02/2010 [2]), sorgt diesen Monat ein Antrag der International Intellectual Property Alliance (IIPA) - die entgegen des Namens nicht international arbeitet, sondern eine rein US-amerikanische Instituition ist - für Aufregung. Diese hat sich an das US-Handelsministerium gewandt, um alle Länder, die Open-Source-Software empfehlen und einsetzen, auf eine gesonderte Beobachtungsliste zu setzen, denn Open Source sei eine Gefährdung geistigen Eigentums („Intellectual Property“) [3].
Hinter diesem Antrag steht natürlich die Angst der IIPA, dass Länder verstärkt die eingesetzte Software selbst anpassen und sich nicht mehr in die Abhängigkeit eines proprietären Software-Herstellers begeben, bei dem man bei Fehlern und neuen Funktionen nur hoffen kann, dass dieser sie irgendwann einmal ausbessert bzw. umsetzt - dann natürlich nur gegen bare Münze.
Dass Closed-Source-Software-Hersteller natürlich dank Open Source an Marktmacht verlieren werden, ist logisch und man kann es der IIPA nicht einmal wirklich vorwerfen, dass sie sich an dem hohen Ast festklammern, auf dem sie sitzen - der Fall zurück auf den Boden (der Tatsachen) würde sehr weh tun. Was aber Open-Source-Software mit Piraterie zu tun haben soll, ist unklar. Und auch das Copyright wird - neben den verschiedenen Lizenzen - in der Open-Source-Szene extrem geachtet. Man darf nicht vergessen: Die meisten Open-Source-Lizenzen, wie die bekannte GNU General Public License [4], sind eine Erweiterung des Copyrights, kein Ersatz. Sie stellen sicher, dass der Urheber („Copyright-Holder“) der Software immer genannt wird und auch nicht das Recht an seinem Code verliert. Daneben gestatten solche Lizenzen aber trotz dieser „Einschränkung“ des Copyrights die weitere Nutzung und Veränderung von Quellcode, was eben den Kern der Open-Source-Software-Entwicklung ausmacht. Aus diesem Grund spricht man auch von einem Copyleft.
Ernst nehmen kann man den Antrag der IIPA daher nicht, selbst wenn er von der US-Regierung akzeptiert werden sollte.

Open Source ist (wieder) gut

Und noch einmal zurück zu SourceForge: Kurz nach unserem Editorial letzten Monat kam am Montag darauf die freudige Nachricht, dass SourceForge die Sperre in die Hände seiner Nutzer legt [5]. Jedes Projekt kann in den Einstellungen wählen, dass jeder Zugriff haben darf. Der Text laut SourceForge ist:
This project DOES incorporate, access, call upon or otherwise use encryption. Posting of open source encryption is controlled under U.S. Export Control Classification Number „ECCN“ 5D002 and must be simultaneously reported by email to the U.S. government. You are responsible for submitting this email report to the U.S. government in accordance with procedures described in: http://www.bis.doc.gov/encryption/PubAvailEncSourceCodeNotify.html and Section 740.13(e) of the Export Administration Regulations („EAR“) 15 C.F.R. Parts 730-772
Die Sperre betrifft also vor allem Projekte, die mit Verschlüsselung arbeiten, was sicherlich nur ein kleiner Bruchteil der SourceForge-Projekte betrifft. Im Nachhinein zeigt dies aber auch, dass die erste globale Sperre seitens SourceForge absolut unverhältnismäßig war.

Open Source ist verwirrend

Auch freiesMagazin muss sich mit Lizenzproblemen herumschlagen. Es sind keine Probleme im engeren Sinne, nur werden wir ab und an gefragt, wieso wir für die Artikel eine so „freizügige“ Lizenz wie die GNU Free Documentation License [6] einsetzen. Die Lizenz erlaubt (in knappen Stichpunkten) einen Artikel ...
  1. ... anderswo unter Berücksichtigung der GFDL zu verwenden, ohne die Zustimmung des jeweiligen Autors einholen zu müssen.
  2. ... unverändert für Print- und Onlinepublikationen zu übernehmen. Die Kopie muss dabei vollständig erfolgen, insbesondere ist der jeweilige Urheber und die Lizenz mit anzugeben.
  3. ... auch kommerziell zu nutzen, also beispielsweise eine gedruckte Version zu verkaufen.
  4. ... zu verändern. Insbesondere muss dabei Folgendes gegeben sein:
    1. Die veränderte Version oder das neue Werk muss wieder unter der GFDL lizenziert sein.
    2. Der Autor/die Autoren des Originalwerkes müssen genannt werden.
Einige Autoren sehen vor allem in Punkt 3 eine Aushöhlung ihrer Rechte bzw. eine Nichtwürdigung ihrer kreativen Arbeit - man könnte auch „Intellectual Property“ sagen (siehe oben). Es gibt bei solchen Einschätzungen aber immer zwei Standpunkte. Das „Free“ in GFDL gibt einem Lizenznehmer eben sehr viele Freiheiten - und das ist etwas, was wir bei freiesMagazin explizit wünschen und fördern wollen.
Natürlich kann man immer noch darüber streiten, ob ein gemeinfreies Lizenzmodell („Public Domain“ genannt, was es im deutschen Recht aber nicht wirklich gibt) nicht noch viel freier wäre, schließlich wäre die Wiederverwertung eines Artikels dann an gar keine Beschränkungen mehr gebunden. Hierin sehen wir aber wirklich eine Nichtwürdigung der kreativen Leistung eines Autors. Der Urheber eines Werkes muss immer erhalten bleiben.
Ob die virale Verbreitung unter der GFDL notwendig ist, darüber lässt sich diskutieren. Gegebenfalls wäre eine Lizenz wie die Creative-Commons-Attribution-Lizenz [7] die bessere Wahl. Bislang haben wir aber mit der GFDL nur gute Erfahrungen gemacht.
Und ja, auch eine kommerzielle Verwertung ist erlaubt. Nicht zwingend durch freiesMagazin, das Projekt wird (hoffentlich) immer nichtkommerziell bleiben, aber eben durch Dritte wie z. B. gedruckte Linux-Zeitschriften, die sich in der Vergangenheit des Öfteren bei freien Linux-Magazinen (wie zum Beispiel bei dem ehemaligen Yalm [8]) bedient haben. Wir denken, solange der Autor (und die Lizenz) gewahrt werden, ist dies okay. Die Autoren in solchen freien Magazin schreiben in der Regel, um sich selbst zu verwirklichen, anderen zu helfen, Ruhm und Ehre einzuheimsen, aber in den seltensten Fällen, um einen finanziellen Gewinn herauszuschlagen.
Daneben ist es immer noch problematisch zu entscheiden, was genau kommerziell bedeutet. Klar ist, dass der Abdruck in einer Zeitschrift, die dann für 10 Euro über den Ladentisch geht, als kommerziell eingestuft werden kann. Aber was ist mit der Veröffentlichung in einem Blog, auf dem Werbung geschaltet ist? Ab welchem Ertrag ist so ein Blog als kommerziell zu sehen? Sobald 1 Cent Gewinn gemacht wird? Oder erst wenn der Gewinn die Kosten der Webseite überschreitet? Diesem Thema hat sich auch Creative Commons letztes Jahr angenommen und dazu einen 255-seitigen Bericht veröffentlicht [9]. Die Essenz: Die Ansichten sind sehr unterschiedlich, was genau unter „kommerziell“ verstanden wird, auch wenn sich eine Mehrheit für den Punkt Gewinnerzielung ausspricht (S. 167 ff im Bericht). Es reicht also, wenn der Urheber eines NC-Werkes andere Ansichten als der Nutzer und Wiederverwerter des NC-Werkes hat, damit es zu einem rechtlichen Konflikt kommt.
Wer also Angst hat, dass seine Artikel kommerziell ausgebeutet werden könnten, kann diese immer noch unter eine NonCommercial-Lizenz stellen. Nur ist dann leider kein Platz mehr in freiesMagazin dafür. (Anmerkung: Bei den Comics machen wir generelle Ausnahmen und bei den Bildern gelegentlich, weil diese nur schmückendes Beiwerk sind und leicht entfernt werden können, um den Artikel dann „korrekt“ weiterverarbeiten zu können.)
Wie sehen Sie dieses Thema denn? Hält Sie die GFDL vor der Veröffentlichung eines Artikels in freiesMagazin ab? Oder nutzen Sie selbst keine NC-Lizenzen für Ihre verbreiteten Inhalte (z. B. in Blogs), weil es eine zu große Einschränkung ist oder weil nicht klar definiert ist, was „kommerziell“ bedeutet? Wir freuen uns über Ihre Meinung, die Sie über den Kommentarlink unten oder direkt per E-Mail an redaktion ETT freiesmagazin PUNKT de senden können.

Aprilausgabe erscheint früher

Die meisten werden es sicher wissen: Am 4. April 2010 ist Ostersonntag. Da ein Großteil des freiesMagazin-Teams zu der Zeit mit Ostereier suchen beschäftigt sein wird und kein Magazin korrigieren will, haben wir uns entschieden, die Aprilausgabe etwas vorzuziehen und diese einen Tag vor Karfreitag zu veröffentlichen. Und wer nun nachrechnet, wird feststellen, dass dies der 1. April ist. Hoffentlich hält dann niemand die freiesMagazin-Aprilausgabe für einen Scherz ...
Wir wünschen Ihnen nun viel Spaß mit der neuen Ausgabe
Ihre freiesMagazin-Redaktion
Links
  1. http://www.sourceforge.net/
  2. http://www.freiesmagazin.de/freiesMagazin-2010-02
  3. http://www.gulli.com/news/lobbyorganisation-open-source-software-gleich-raubkopie-2010-02-25
  4. http://www.gnu.org/licenses/gpl.html
  5. http://sourceforge.net/blog/some-good-news-SourceForge-removes-blanket-blocking/
  6. http://www.gnu.org/licenses/fdl.html
  7. http://creativecommons.org/licenses/by/3.0/deed.de
  8. http://www.freiesmagazin.de/yalm
  9. http://wiki.creativecommons.org/Defining_Noncommercial
Das Editorial kommentieren

Zum Index

Mandriva Linux 2010

von Thorsten van Lil
Am 3. November 2009 hat Mandriva S. A. wie angekündigt die neue Version der gleichnamigen Linux-Distribution Mandriva Linux 2010 veröffentlicht. Glaubt man den Release Notes [1], so wird die neue Version alle anderen Distributionen in den Schatten stellen, und in der Tat sind neben den üblichen Aktualisierungen einige interessante Neuerungen dabei - allen voran der smarte Desktop.
Redaktioneller Hinweis: Der Artikel „Mandriva Linux 2010“ erschien erstmals bei Pro-Linux [2] und wird unter der GNU Free Documentation License [3] veröffentlicht.

Mandriva und die Editionen

Mandriva Linux gibt es prinzipiell in vier Editionen: die Live-CD „One“, die Installer-DVD „Free“, die kommerzielle Version „Powerpack“ und Mandriva „Flash“ als USB-Stick.
Die Live-CD „One“ eignet sich für all jene, die sich noch unsicher sind. In der Live-CD sind proprietäre Treiber und einige Codecs enthalten. So lässt sich bereits im Live-Modus testen, ob die verbaute Hardware erkannt wird und ob Mandriva den eigenen Anforderungen genügt. Mandriva One gibt es dabei als KDE4- und als GNOME-Version.
Mandriva „Free“ bietet als Installations-DVD die Flexibilität einer Paketauswahl, beinhaltet dagegen aber keine proprietären Treiber und Codecs, da hier nur quelloffene Software verwendet wird. Nach oder während der Installation lassen sich jedoch mit wenigen Klicks die Software-Quellen einbinden, in denen dann auch proprietäre Software enthalten ist.
Das „Powerpack“ als kommerzielle Edition ist ebenfalls eine Installations-DVD, enthält jedoch bereits die proprietären Treiber und Codecs, die selbst in den Non-Free-Quellen nicht enthalten sind. Zudem ist der Fluendo-DVD-Player enthalten.
Mandriva „Flash“ ist ein USB-Stick mit persistentem Speicher und einigen Codecs.
Einen guten ersten Überblick über die Versionen erhält man auf der Vergleichsseite von Mandriva [4]. Für komplette Mandriva-Neulinge scheint Mandriva „One“ als Live-CD besonders interessant zu sein. Hier im Test werden Mandriva Linux „Free“ und „One“ verwendet.

Software

Natürlich kommt Mandriva Linux mit der aktuellsten Software. Als beliebte Desktopumgebungen sind GNOME in der Version 2.28.1, KDE in Version 4.3.2 und Xfce in Version 4.6.1 dabei. Für Netbooks stehen die angepassten Oberflächen Sugar und Moblin 2 bereit. Die Basis von Mandriva Linux 2010 bildet der Kernel 2.6.31 inklusive der üblichen Patches von Mandriva. Mozillas Browser Firefox wurde auf die Version 3.5.5, OpenOffice.org (basierend auf dem Projekt Go-OO [5]) auf die Version 3.1.1 angehoben.
Weiterhin wurde zur grafischen Darstellung des Startvorgangs Plymouth ins Boot geholt und ersetzt damit Splashy.
Als grafischer Server wird X.org 7.3 mit dem X-Server 1.6.5 verwendet. Der Pulsbo-Treiber (psb) unterstützt 2-D und 3-D der Intel-Grafikgeräte.

Testhardware

Als Hardware standen für den Test ein Thinkpad Z60m, auf dem bis dato Mandriva Linux 2009 lief, und ein alter Desktop-Rechner mit AMD Athlon XP 2000+ (1,7 GHz), 512 MB RAM und NVIDIA GForce 440MX zur Verfügung. Der zweite Rechner dient als Härtetest. Hier soll die KDE-Version als Live-CD verwendet werden. KDE4 hat den Ruf, nicht unbedingt ressourcensparend zu sein. Als Live-CD auf einem Rechner mit 512 MB RAM dürfte das nicht unbedingt viel Freude bereiten. Dafür sollte die alte Hardware problemlos erkannt werden.

Installation

Bei beiden Installationen ist wenig Überraschendes zu berichten. Sowohl die Live-Installation als auch der Installationsassistent der Free-DVD sind logisch aufgebaut und verlangen wenig Vorkenntnisse vom Anwender. Der Knackpunkt einer Installation ist jeweils die Partitionierung. Hier bietet Mandriva zwei Features, die das Ganze klarer machen sollen. Zum einen werden die drei Optionen (Partitionen beibehalten, freien Platz der Windows-Partition nutzen und komplette Platte für Mandriva nutzen) grafisch dargestellt, wobei die Mandriva-Partition jeweils mit einem Stern gekennzeichnet wird. Bei der benutzerdefinierten Partitionierung besteht zudem die Möglichkeit, sich den Inhalt der Partitionen anzeigen zu lassen. Als Standard-Dateisystem für neu angelegte Partitionen wird Ext4 genutzt.
Negativ ist bei der Installation mit der Free-DVD aufgefallen, dass keine Liste von Spiegelservern bereitstand bzw. abgerufen werden konnte. Es wurde lediglich die Fehlermeldung angezeigt. Anschließend hatte man die Möglichkeit, eine Serveradresse anzugeben. Dabei bestand zu dem Zeitpunkt bereits eine Verbindung zum Internet. Das war jedoch nicht weiter schlimm, da sich nach der Installation die Quellen problemlos einrichten ließen. Bei der Installation des Bootloaders (GRUB 0.97 mit ext4-Unterstützung) wurde sowohl Windows als auch das zweite Linux-System auf dem Rechner erkannt.
Positiv ist zu erwähnen, dass nach der Installation der One-CD ein Dialog erscheint, der anbietet, nicht benötigte Sprachpakete und Treiber zu deinstallieren. Obwohl in diesem Fall keine Probleme auftraten, sollte man bei diesem Schritt stets vorsichtig sein und sich die Liste der zu entfernenden Pakete gut ansehen.
Beim ersten Neustart nach der Installation wird noch der Benutzer eingerichtet und ein Root-Passwort festgelegt. Anschließend erscheint ein Wizard, der ein paar Fragen stellt und bittet, die Hardwareliste an Mandriva zu senden. Leider ist der „Cancel“-Button etwas versteckt am unteren rechten Rand.
Wer die Umwelt schonen will oder kein optisches Laufwerk besitzt, kann sich sowohl die Live-CD als auch die Free-DVD auf einen USB-Stick schieben. Als Hilfsmittel dazu wird Mandriva-Seed [6] angeboten. Mandriva-Seed gibt es als Windows- und als Linux-Version und macht das Aufspielen auf Sticks kinderleicht.

Erscheinungsbild und erster Eindruck

Nach der Installation startet Mandriva erfreulich zügig. Vor allem fiel der schnelle Start von KDE auf. Dauerte das Starten von KDE in früheren Versionen etwa eine halbe Minute, so braucht KDE jetzt nur noch wenige Sekunden, bis es in voller Pracht erscheint. Als Erstes fällt dabei auf, dass neben den angelegten Benutzern auch ein Gast-Account vorhanden ist. Dieser erlaubt Gästen einen passwortlosen Zugang, allerdings werden alle Daten nur temporär in einem tmpfs-Dateisystem angelegt und nach dem Abmelden wieder gelöscht. Wer sich an dem Gast-Zugang stört, kann ihn jedoch im Mandriva Control Center deaktivieren.
In der neuen Version präsentiert sich Mandriva aufgeräumt und klar. Mandriva kommt je nach Edition in einem unterschiedlichen Theme. One und Powerpack ähneln sich dabei sehr. Das Theme der Free-Version präsentiert sich dagegen unterschiedlich. Innerhalb der Testdauer wurde nichts am Standardaussehen verändert, was auch daran liegt, dass an den Hauptkritikpunkten des Designs gearbeitet wurde. Unter KDE wird jetzt ein eigenes Plasma-Theme verwendet. Außerdem wurde die Fensterdekoration „Ia-Ora“ überarbeitet. Auch wenn „Ia-Ora“ immer noch nicht überwältigend schön ist, so wirkt es zumindest nicht mehr wie ein Fremdkörper. Das eigene Plymouth-Theme wirkt in allen Versionen gefällig, ohne verspielt zu sein. So lässt sich eigentlich das gesamte Erscheinungsbild von Mandriva zusammenfassen.
Die unterschiedlichen Desktopumgebungen wurden gleichermaßen angepasst, sodass auch alle Programme, gleich mit welchem Toolkit, sich in die unterschiedlichen Umgebungen gut einpassen. OpenOffice.org nutzt zudem unter KDE das Oxygen-Icon-Theme, um eine bessere Integration zu erreichen. Bei der One war das Abspielen von MP3s und das Ansehen von YouTube-Videos sofort möglich. Die gesamte Hardware der Testrechner wurde sofort erkannt und richtig konfiguriert. LAN, WLAN, Grafik und selbst Bluetooth funktionierte auf Anhieb. Der eingebaute Kartenleser arbeitet ebenfalls zur vollsten Zufriedenheit.
Das komplette System mit seinen Tools arbeitet zügig und schnell. Auch die Softwareverwaltung hat an Geschwindigkeit zugelegt, und da die wichtigsten Quellen bereits eingerichtet sind, kann direkt losgelegt werden.
Das Einzige, was den positiven Gesamteindruck etwas trübte, war eine falsche Upgrade-Meldung, die anbot, ein Upgrade auf Mandriva Linux 2009.1 durchzuführen. Ein Update behob dieses Problem jedoch.

Mandriva verwalten

Ein großes Plus von Mandriva Linux war und ist seit jeher das Mandriva Control Center. Alle administrativen Aufgaben lassen sich dort erledigen, wobei in der Standardkonfiguration vor allem Werkzeuge für Endanwender vorhanden sind. Installiert man entsprechende Pakete nach, stehen aber umfangreiche Werkzeuge zum Einrichten unterschiedlicher Server bereit.

Softwareverwaltung

Die Softwareverwaltung ist zweifellos eine der wichtigsten Werkzeuge im Leben eines Linuxsystems. Im Falle von Mandriva ist es URPMI bzw. die grafische Oberfläche Rpmdrake. Alles Wichtige dazu findet sich im Mandriva Control Center in der Rubrik „Software verwalten“. Hier müssen zuerst in der Quellenverwaltung die benötigten Softwarequellen eingerichtet werden. Wählt man rechts „Hinzufügen“, hat man die Möglichkeit, einen vollständigen Quellen-Satz oder nur Update-Quellen hinzuzufügen. Wählt man ersteres, werden alle offiziellen Quellen (Main, Contrib, Non-Free, Backports, Testing mit ihren jeweiligen Update-Quellen) eingerichtet, wobei nur die ersten drei mit den Update-Quellen aktiviert werden. Dabei wird jedoch kein spezieller Server gewählt, sondern die MIRRORLIST verwendet. Mit der MIRRORLIST wird vor jeder Aktion von URPMI ein Server ausgesucht, der aktuell ist und eine gute Verbindung erlaubt. Möchte man jedoch einen speziellen Server verwenden, kann man über das Menü „Datei Pfeil rechts Add a specific media mirror“ einen aus einer Liste wählen. Alternativ kann man auch den Service SmartUrpmi [7] der deutschen Mandriva-Community nutzen. Dieser bietet zudem eine erweiterte Quellen-Auswahl. In den PLF-Quellen finden sich einige Extras wie libdvdcss, einige Codecs, lame und vieles mehr.
Rpmdrake als grafische Oberfläche bieten zudem einige Extras, die hier kurz erwähnt werden sollen. Über die Drop-Down Menüs in der linken oberen Ecke kann das Suchergebnis beeinflusst werden. Hier kann eingestellt werden, ob nur nach Paketen mit grafischer Oberfläche gesucht oder ob nur Metapakete angezeigt werden sollen. Drückt man auf das Lupen-Symbol in der Suchleiste, kann man wählen, wo gesucht werden soll, also ob beispielsweise nur in den Paketnamen gesucht werden soll oder in den gesamten Dateilisten der einzelnen Pakete. Über das „Ansicht“-Menü kann man die Kategorie wählen, die im linken Teil des Fensters angezeigt wird.
Neu seit der Version 2010 ist die Möglichkeit, die regelmäßige Überprüfung nach Updates zu konfigurieren. Hier lässt sich die Frequenz wählen und wann der erste Check nach dem Systemstart stattfinden soll.
Über die Konsole hat man die Möglichkeit, verwaiste Pakete zu entfernen. Dazu muss man den Befehl
# urpme --auto-orphans
ausführen. Hier gilt jedoch besondere Vorsicht: Entfernt man zum Beispiel das Metapaket task-kde, wird die gesamte KDE als verwaist dargestellt. Möchte man einzelne Pakete als nicht-verwaist markieren, so muss man sie lediglich mit urpmi aufrufen. Das Paket wird dann nicht erneut installiert, sondern nur als manuell installiert markiert und ist somit nicht mehr verwaist.

Hardwareeinrichtung

Auch bei der Einrichtung der Hardware unterstützt einen das Mandriva Control Center. Wer die Free-Version zur Installation nutzt, will vielleicht den proprietären Treiber für die Grafikkarte nachinstallieren und verwenden. Dazu wählt man in der Rubrik „Hardware“ den Punkt „Grafischen Server einrichten“. An dieser Stelle muss man nur die Einrichtung der Grafikkarte erneut durchgehen (die Vorauswahl bestätigen) und wird am Ende gefragt, ob man den proprietären Treiber nutzen möchte. Bejaht man diese Frage, wird der entsprechende Treiber heruntergeladen und eingerichtet. Das Ganze funktioniert aber auch andersherum. Will man lieber den freien Treiber verwenden, verneint man die Frage.
Ähnlich komfortabel läuft die Einrichtung von kabellosen Netzwerken. Unter „Netzwerk & Internet“ kann man neue Schnittstellen hinzufügen. Werden Treiber für das Gerät benötigt, werden diese heruntergeladen und installiert. Bei der One-Edition sollten jedoch schon alle Treiber vorhanden sein.
In der Rubrik „Hardware“ gibt es zudem den Punkt „Betrachten und Konfigurieren der Hardware“. Hier kann die gesamte verbaute Hardware angezeigt werden. Wählt man aus der Liste ein bestimmtes Element an, kann auch ein jeweiliger Einrichtungsassistent gestartet werden.
Weiterhin gibt es ein Sicherheitscenter, in dem sich regelmäßige Checks einstellen lassen. Eine interaktive Firewall sowie eine Kindersicherung sind auch dabei. Letztere bietet jetzt auch die Möglichkeit, Benutzern den Zugang zum Internet nur in einer bestimmten Zeitspanne zu erlauben.

Der smarte Desktop

Ja, wer hat nicht schon immer auf den smarten Desktop gewartet? Jetzt soll er da sein. Allerdings bleibt er vorerst nur KDE-Nutzern zugänglich. Hinter dem smarten Desktop verbirgt sich die Integration des semantischen Desktops [8] mit Nepomuk. Da Mandriva mit Sebastian Trueg einen Hauptentwickler von Nepomuk bezahlt, wundert es wenig, dass Mandriva damit wirbt, die erste Distribution mit der Integration zu sein. Dabei gehen die Möglichkeiten weit über das Taggen und Kommentieren von Dateien hinaus. In einem kleinen Video [9] zeigt Mandriva auch, wie das funktionieren soll.
Zuerst musste aber das Paket nepomuk-scribo installiert und Nepomuk in den KDE-System-Settings aktiviert werden. Anschließend kann man sich das „Task Management Widget“ auf den Desktop legen oder das Programm Tasktop starten. Mit Tasktop lassen sich Aufgaben (mit Unteraufgaben) definieren und den Aufgaben Ressourcen zuordnen. Als Ressourcen sind bisher Kontakte, E-Mails, Dateien/Ordner und Webseiten möglich. Webseiten können dabei mit zwei Klicks aus dem Konqueror heraus mit einer Aufgabe verbunden werden. Für Dateien und Ordner gilt das Gleiche mit Dolphin.
Wer E-Mails mit Aufgaben verknüpfen will, braucht das Paket kmail-nepomuk, das eine veränderte Version von KMail darstellt. Nach der Installation wird man jedoch darauf hingewiesen, dass es sich dabei um eine Technologie-Vorschau handelt und man diese Version auf keinen Fall für wichtige E-Mails nutzen soll. Schade eigentlich, denn so konnten die Funktionen nur angetestet werden. Kontakte müssen in Tasktop komplett neu angelegt werden. Eine Funktion zum Importieren der Kontakte aus dem KAdressbook war nicht aufzufinden. Hat man mehrere Kontakte mit einer Aufgabe verknüpft, kann man so eine E-Mail an alle Kontakte dieser Aufgabe schicken.
In allen KDE-Anwendungen steht zum Öffnen und Speichern neben den normalen Dialogen auch eine semantische Ansicht zur Verfügung. Diese erlaubt das Suchen von Dateien anhand eines Filters und Kalenders. Beispielsweise können damit alle Dateien anzeigt werden, die heute bearbeitet wurden. Die Filterfunktion erwies sich dagegen als wenig hilfreich. Es erschienen hunderte Einträge zu Nepomuk, deren Sinn nicht ersichtlich war.
Alles in allem lässt sich mit semantischen Desktops erstmals vernünftig arbeiten. Bei der Erstellung dieses Berichtes haben sie sich als durchaus nützlich erwiesen. Interessante Webseiten wurden aus dem Konqueror heraus per Mausklick mit der Aufgabe „Review 2010“ verknüpft. Bilder, Ordner und andere Dateien, die im Zusammenhang wichtig erschienen, ebenso aus Dolphin. An einigen Stellen hakte es jedoch noch, sodass man sich auf kommende Versionen freuen kann.

Ausblick auf GNOME3

GNOME kommt in der aktuellen Version 2.28. Auch wenn in diesem Artikel der Fokus auf KDE liegt, soll GNOME nicht vergessen werden. Mandriva wird oftmals als KDE-Distribution bezeichnet. Das liegt zum einen an der sehr guten Integration von KDE und zum anderen an den Nutzern. Laut Umfrage im offiziellen Mandriva-Forum nutzen ca. 75 % aller Nutzer Mandriva mit KDE. Dennoch gibt sich Mandriva jedes Mal viel Mühe, GNOME mit Erfolg auf einen gleichwertigen Level zu bringen. Fensterdekoration und Hintergrund sind die gleichen wie in KDE. Die Menüs sind aufgeräumt und gut sortiert. Lediglich das verwendete Icon-Theme ist wenig gefällig.
In GNOME 2.28 ist mit Zeitgeist [10] und GNOME Shell [11] ein Ausblick auf GNOME3 dabei. Durch den Aufruf des Befehls
$ gnome-shell --replace
wird die GNOME-Shell gestartet. Über das Konzept hinter der GNOME-Shell mit den Aktivitäten wurde in letzter Zeit genug geschrieben. Im Test hat es gut funktioniert, war leicht zu verstehen und die Effekte liefen flüssig. Lediglich beim ersten Öffnen des Programm-Menüs gab es ein paar Sekunden Verzögerung.
Insgesamt war der Eindruck sehr positiv und man darf auf die weitere Entwicklung gespannt sein, schließlich vergeht bis GNOME3 noch fast ein Jahr.

Weitere Oberflächen

Neben GNOME und KDE kommt Mandriva mit vielen weiteren Oberflächen. Xfce und LXDE gehören ja schon zum guten Ton. Daneben gibt es noch für alle Netbook-Besitzer Sugar und Moblin. Mit dem jeweiligen Metapaket (task-sugar bzw. task-moblin) sind die Umgebungen schnell installiert. Dabei beißen sich allerdings die Pakete von mutter und moblin-mutter, sodass man die GNOME Shell nicht parallel zu Moblin installiert haben kann.
Moblin selbst bietet eine ansprechende und leicht verständliche Oberfläche. Auch das Netzwerk-Center funktionierte im Test problemlos, sodass mit wenigen Klicks eine WLAN-Verbindung erstellt werden konnte. Allerdings stellt einen das Verlassen der Oberfläche vor eine Herausforderung: Es gab keine Möglichkeit, sich abzumelden, auch die Tastenkombination zum Neustarten des X-Servers brachte keinen Erfolg. Der Wechsel auf die Konsole per Tastenkombination klappte jedoch.
Mandriva hat angekündigt, dass nach dem Erscheinen von Moblin 2.1 auch wieder eine Mandriva-Moblin-Live-CD erscheinen wird, doch bis jetzt ist das nicht geschehen.

Der Härtetest

Wie bereits angekündigt, wurde für den Test Mandriva Linux 2010 mit der KDE-Live-CD auf einem Desktop-PC mit 512 MB Arbeitsspeicher installiert. Die Installation selbst war, wie zu erwarten, sehr zähflüssig. Der Bootvorgang dauerte bereits mehrere Minuten und endete auf der Konsole. Die verbaute GeForce-4-Grafikkarte wurde zwar korrekt erkannt und mit dem proprietären Treiber eingerichtet, doch dieser scheint hier Probleme zu verursachen. Nach dem Wechseln zum freien Treiber über das Tool XFdrake startete KDE problemlos, wenngleich auch das weitere Minuten brauchte. Nach dem Start wurden nicht benötigte Hintergrundprogramme wie draksnapshot beendet, um den Platz im Arbeitsspeicher frei zu machen.
Anschließend ließ sich die Installation starten und verlief reibungslos. Nach der Installation ließ sich mit dem Rechner überraschend gut arbeiten. Der Startvorgang in KDE4 mit allen Hintergrundprogrammen dauerte ziemlich genau 60 Sekunden. Nach dem Start waren dabei etwa 30 % des Arbeitsspeichers belegt, also etwa 180 MB. Nach dem Start von Amarok, Firefox und OpenOffice.org waren jedoch auch schon über 45 % des Arbeitsspeichers belegt. Das Navigieren mit Dolphin auch in Ordnern mit vielen Dateien verlief zügig. Programme wie OpenOffice.org und Firefox brauchten für den Erststart wenige Sekunden.
Zusammenfassend lässt sich also sagen, dass 512 MB Arbeitsspeicher genug ist für eine volle Installation mit KDE4. Als Installationsweg empfiehlt sich jedoch eher die Free-DVD und weniger die Live-CD.

Die Community

Die Gemeinschaft der Mandriva-Nutzer [12] ist im deutschsprachigen Raum eher etwas kleiner, aber dafür an einer Stelle zentriert. Dort findet sich neben einem aktiven Forum [13], ein Wiki [14], Newsportal [15], Spiegel-Server und ein eigenes Paket-Repository. Zu dem Angebot haben sich vor wenigen Wochen auch eine Netbook-Edition [16] und eine LXDE-Edition [17] gesellt.

Fazit

Mandriva Linux 2010 hat sich innerhalb der letzten Wochen als gut durchdachtes und leicht zu bedienendes System erwiesen. Das System arbeitet schnell und wirkt trotz KDE4 leicht und spritzig. Es hat große Freude bereitet, das System zu nutzen und negative Punkte müssen wirklich gesucht werden, aber es gibt sie. Dazu zählen die falsche Upgrade-Meldung (was aber mit einem Update behoben wurde) und die eine oder andere fehlende Übersetzung. Alles in allem ist Mandriva Linux 2010 aber eine rundum gelungene Version, die ich jedem nur empfehlen kann. Die Berichte über Mandriva 2010, die bisher veröffentlicht wurden, sind ähnlich positiv, sodass jeder, der gerade auf der Suche nach einer neuen Distribution ist, sich Mandriva ansehen sollte.
Seit Mandriva Linux 2009.0 hat sich somit Mandriva mit jeder Version deutlich gesteigert. Man darf also gespannt sein, wo die Reise noch hingeht.
Links
  1. http://wiki.mandriva.com/de/2010.0_Notes
  2. http://www.pro-linux.de/NB3/artikel/2/360/mandriva-linux-2010.html
  3. http://www.gnu.org/copyleft/fdl.html
  4. http://www2.mandriva.com/linux/which/
  5. http://go-oo.org/
  6. ftp://ftp.mandrivauser.de/mandriva_isos/2010.0
  7. http://www.mandrivauser.de/smarturpmi
  8. http://doc4.mandriva.org/bin/view/labs/Nepomuk-mdv2010-RC
  9. http://www.dailymotion.com/video/xbc6a2_nepomuk-semantic-desktop-under-mand_tech
  10. http://live.gnome.org/Zeitgeist
  11. http://live.gnome.org/GnomeShell
  12. http://www.mandrivauser.de/
  13. http://www.mandrivauser.de/forum
  14. http://www.mandrivauser.de/doku/doku.php
  15. http://www.mandrivauser.de/wordpress/
  16. http://www.mandrivauser.de/wordpress/?p=443
  17. http://www.mandrivauser.de/wordpress/?p=454
Autoreninformation
Thorsten van Lil nutzt Mandriva privat seit 2007. Er ist verantwortlich für das offizielle deutsche Mandriva-Wiki und ist darüber hinaus Administrator des MandrivaUser-Newsportals.
Diesen Artikel kommentieren

Zum Index

Der Februar im Kernelrückblick

von Mathias Menzer
Basis aller Distributionen ist der Linux-Kernel, der fortwährend weiterentwickelt wird. Welche Geräte in einem halben Jahr unterstützt werden und welche Funktionen neu hinzukommen, erfährt man, wenn man den aktuellen Entwickler-Kernel im Auge behält.

Linux 2.6.33

In unter drei Monaten und nach nur acht Vorabversionen veröffentlichte Torvalds Ende Februar noch den Kernel 2.6.33 [1]. Der trotz Weihnachtszeit und des Jahreswechsels vergleichsweise schnell fertiggestellte Neuling der Linux-Kernel-Reihe kann dennoch mit bedeutenden Neuerungen aufwarten. So befindet sich der freie Treiber „Nouveau“ für NVIDIA-Grafik-Chipsätze nun im Kernel. Er wurde mittels Reverse Engineering ohne Hilfe von NVIDIA entwickelt, bietet jedoch bereits gute 2-D-Unterstützung und eine eingeschränkte 3-D-Beschleunigung. Die Arbeiten daran laufen weiter, unter anderem mit dem Ziel, die Abhängigkeit von der Firmware ctx_voodoo zu entfernen. Die Nouveau-Entwickler erhoffen sich eine bessere und längerfristige Unterstützung von Grafikhardware, da Anwender unterstützter Karten nun nicht mehr allein auf das Wohlwollen des Herstellers angewiesen sind.
Ebenfalls populär war die Aufnahme des Kernel-Moduls von DRBD (Distributed Replicated Block Device). Diese Software ermöglicht die Replikation eines Blockspeichergerätes über das Netzwerk auf andere Systeme. Damit lassen sich zum Beispiel Partitionen erstellen, die auf mehreren Servern synchron gehalten werden und somit beim Ausfall eines Systems noch zur Verfügung stehen - sei es durch einen Festplattendefekt, eine Störung des Netzwerks oder sonstige Ausfälle bedingt.
Etwas Schutz vor bösen Absichten sollen „TCP Cookie Transactions“ (TCPCT) bieten - eine Erweiterung des TCP-Protokolls, die die Wirksamkeit von Denial-of-Service-Attacken vermindert. Dabei wird beim Verbindungsaufbau ein Cookie mitgesendet, mit dessen Hilfe auf der Gegenseite eben jener Verbindungsaufbau ohne die Nutzung weiterer Ressourcen durchgeführt werden kann. Ebenso werden direkt nach Beendigung der Verbindung Ressourcen auf dem Server wieder freigegeben.
Auch von ReiserFS gibt es wieder etwas zu hören. Allerdings von der etwas älteren Version 3, die bislang immer noch Gebrauch vom Big Kernel Lock (BKL) machte. Diese mittlerweile veraltete Variante zur Verhinderung gleichzeitiger Zugriffe auf den Kernelspace sperrt den gesamten Kernel, im Gegensatz zur aktuellen Methode, nur einzelne Zweige zu sperren. ReiserFS machte hiervon exzessiv Gebrauch und erleichterte es den Entwicklern dadurch nicht gerade, ihm den BKL auszutreiben. Sie bedienten sich daher rekursiver Locks (mehrfacher Sperren durch einen einzigen Thread). Dies wird auch nicht als saubere Lösung gesehen, allerdings hätte eine Implementierung aktueller Sperrmechanismen ein Umschreiben großer Teile von ReiserFS erfordert.
Auch diesmal ist die Anzahl der Änderungen wieder zu groß, um sie alle beschreiben zu können. Spieler und Bastler können sich über die Unterstützung für Sonys Wii und Nintendos Gamecube freuen, Entwickler über weitere Werkzeuge zur Leistungsmessung des Kernels. Der Radeon-Treiber wurde verbessert und arbeitet nun auch mit R6xx- und R7xx-Modellen, neue Treiber kamen in allen Bereichen hinzu. Eine umfassende, englischsprachige Auflistung bietet Kernelnewbies [2].

Android fliegt raus

Seit 2.6.33 sind die Android-spezifischen Anpassungen nicht länger im Linux-Kernel enthalten. Einmal mehr betonte der Verwalter des staging-Zweiges, Greg Kroah-Hartman, „staging ist kein Abladeplatz für ungepflegten Code“ und warf die entsprechenden Treiber kurzerhand raus [3]. Android nutzt ein anderes Verfahren zum Sperren genutzter Bereiche im Kernelspace und verfügt auch über ein abweichendes Sicherheitsmodell, wodurch zusätzliche Anpassungen benötigt werden, damit Android-Treiber in den Linux-Kernel aufgenommen werden könnten. Leider machte Google bislang keine Anstalten, um diese notwendigen Änderungen vorzunehmen. Nachdem Jan Wildeboer nun einen Fork des Kernels [4] befürchtete, kam wieder Leben in das Thema. In einem Interview mit Linux-Magazin ließ Kroah-Hartman durchsickern, dass Google die Zusammenarbeit mit den Entwicklern des Mainstream-Kernels aufnehmen möchte und auch das Sicherheitsmodell von Android überarbeiten wolle [5].

Optimierungen für den Desktop

Auch Con Kolvias, der ein ausgeprägtes Faible für Scheduler hat, meldet sich zurück - mit einem umfassenden Satz an Patches für den Kernel 2.6.33, der sich auf die Leistung des Kernels auf einem Desktop-System positiv auswirken soll [6]. So findet sich darin unter anderem der von ihm erdachte Brain Fuck Scheduler (BFS), mit dem er sich im September vergangenen Jahres nach zweijähriger Pause wieder bei der Kernel-Entwicklergemeinde zurückmeldete (siehe „Der September im Kernel-Rückblick“, freiesMagazin 10/2009 [7]). BFS nutzt die Ressourcen auf Systemen mit vier oder weniger Prozessoren besser als der derzeit verwendete Completely Fair Scheduler (CFS). Weitere enthaltene Patches verringern Latenzzeiten oder optimieren das Swap-Verhalten.

Ksplice

Eine Methode, um Kernelaktualisierungen ohne Neustart des Systems zu installieren, stellt Ksplice dar (siehe „Kernel-Rückblick“, freiesMagazin 05/2008 [8]). Das am MIT (Massachusetts Institute of Technology) [9] entwickelte Verfahren wird nun durch das Unternehmen Ksplice [10] als Dienstleistung namens „Ksplice Uptrack“ vertrieben. Dabei stellt Ksplice angepasste Aktualisierungen bereit, die per Abonnement durch ein auf dem System installierten Programm heruntergeladen und als Modul zur Laufzeit in den Kernel eingehängt werden. Während das Abonnement für Red Hat Enterprise Linux, CentOS, Debian und Ubuntu 8.04 LTS kostenpflichtig ist, steht es Anwendern von Ubuntu 9.04 und 9.10 kostenfrei zur Verfügung [11].

Was kostet Linux?

Linux ist Freie Software. Dass damit nicht frei im Sinne von Freibier gemeint ist, darauf wies schon Richard M. Stallman hin. Eine Forschungsgruppe an der Universität von Oviedo (Spanien) hat diese Aussage nun mit harten Zahlen untermauert [12]. Die Forscher ermittelten nach dem Constructive Cost Model (COCOMO) [13] den Wert des Kernels 2.6.30 mit über einer Milliarde Euro. Bei einer Entwicklungszeit von 14 Jahren würden von Anfang an 985 Personen an der Kernel-Entwicklung mitarbeiten müssen. Die Forscher weisen darauf hin, dass die verwendeten Kostenmodelle der Komplexität der Open-Source-Software-Entwicklung nicht ganz gerecht werden, da hier Code beständig einfließt, aber auch wieder entfernt wird. Dies würde ein Überdenken dieser Modelle erfordern, um zum Beispiel auch die Wiederverwendung und Weiterentwicklung des Codes zu berücksichtigen [14].
Links
  1. http://lkml.org/lkml/2010/2/24/301
  2. http://kernelnewbies.org/Linux_2_6_33
  3. http://www.pro-linux.de/NB3/news/1/15260/android-und-der-linux-kernel.html
  4. http://jan.wildeboer.net/2010/02/is-google-forking-the-linux-kernel/
  5. http://www.linux-magazin.de/NEWS/Video-Android-und-der-Linux-Kernel
  6. http://www.linux-community.de/Internal/Nachrichten/Con-Kolivas-meldet-sich-mit-Patchset-fuer-2.6.33-zurueck
  7. http://www.freiesmagazin.de/freiesMagazin-2009-10
  8. http://www.freiesmagazin.de/freiesMagazin-2008-05
  9. http://mit.edu/
  10. http://www.ksplice.com/
  11. http://www.pro-linux.de/NB3/news/1/15293/ksplice-uptrack-ermoeglicht-kernel-updates-ohne-neustart.html
  12. http://www.pro-linux.de/NB3/news/1/15350/was-kostet-die-entwicklung-des-kernels-2630.html
  13. http://de.wikipedia.org/wiki/COCOMO
  14. http://iri.jrc.ec.europa.eu/concord-2010/posters/Garcia-Garcia.ppt
Autoreninformation
Mathias Menzer wirft gerne einen Blick auf die Kernel-Entwicklung, um mehr über die Funktion von Linux zu erfahren.
Diesen Artikel kommentieren

Zum Index

Pimp my Desktop

von Ralf Hersel
Die Arbeitsoberfläche der Linux Desktops ist von Haus aus eine Wüste, die zu 5 % aus Panels, Menüs und Startern besteht und zu 95 % ein Hintergrundbild ohne weitere Information oder Funktion zeigt. Viele Anwender sind mit diesem Zustand zufrieden, andere wünschen sich mehr Inhalt auf der Oberfläche. In diesem Artikel werden Maßnahmen beschrieben, um den Informationsgehalt des Desktops zu erhöhen und ihn optisch ansprechender zu gestalten.

Status quo

Die grafische Benutzeroberfläche wurde ab 1973 von der Firma Xerox mit dem Xerox Alto erfunden. Zu einem kommerziellen Erfolg wurde jedoch erst der Xerox Star [1] im Jahr 1981. Die Oberfläche des Xerox Star zeigt die wesentlichen Elemente des Konzepts: grafische Darstellung, Anwendungen in eigenständigen Fenstern, Icons als Links auf Anwendungen, Verzeichnisse oder Dateien. Der Xerox Star verdeutlicht die Schreibtisch-Metapher: Es liegen geöffnete Briefe herum, es gibt Posteingangs- und -ausgangskorb, einen Papierkorb, Taschenrechner und Drucker sowie Ordner für die verschiedenen Dokumententypen.
In den vergangenen 30 Jahren hat sich an diesem Grundkonzept nicht viel verändert. Seien es die Apple-, Windows- oder Linux-Desktops, im Grunde genommen sieht es immer noch aus wie damals. Auf einem modernen Desktop, wie z. B. GNOME, ist von der Schreibtisch-Metapher nicht mehr viel übrig geblieben. Der Schreibtisch ist so gut wie leer; lediglich der Papierkorb ist noch vorhanden, versteckt sich aber rechts unten im Panel. Der Grund für das Verschwinden der ursprünglichen Desktopelemente liegt auf der Hand - ein geöffnetes Dokument oder Programm verdeckt in der Regel große Teile des Schreibtischs und damit auch die nützlichen Helferlein. Im Panel sind diese Elemente jedoch auch bei maximierten Programmfenstern jederzeit erreichbar.
Folgt man den Forendiskussionen zu diesem Thema [2], so besteht hier kein Handlungsbedarf. Die meisten Anwender sind mit dem Desktop zufrieden. Die Minimalisten unter ihnen bevorzugen einen aufgeräumten Schreibtisch, auf dem fast nichts herumliegt. Bei der anderen Fraktion ähnelt der Desktop einem Schachbrett voller Starter und Dokumentenicons.
Wer jedoch mehr Informationen auf seiner grafischen Oberfläche haben möchte, für den bieten die aktuellen Linux-Desktops kleine Applikationen, sogenannte Applets. Bei KDE heißen sie Plasmoide; bei GNOME gibt es die GDesklets und die Screenlets [3]. Mit ihnen lässt sich der Informationsgehalt des Desktop erweitern.

Mehr Infos

Als Beispiele für informative Applets unter Ubuntu mit GNOME-Oberfläche dienen das Clear-Weather-Screenlet und das Feed-Reader-Screenlet. Bevor diese eingerichtet werden können, muss man das Paket screenlets wie gewohnt über das Software-Center installieren. Nach der Installation kann die Screenlet-Verwaltung aus dem Menü „Zubehör“ gestartet werden.
Diese Verwaltung gibt einen Überblick über die verfügbaren Screenlets, erlaubt das Starten und Stoppen sowie das Konfigurieren der ausgewählten Screenlets. Außerdem kann über das Internet [4] die Sammlung erweitert werden. Wer möchte, kann die Screenlets seiner Wahl einmalig starten oder per Eintrag in die Startprogramme bei jedem Sitzungsstart automatisch auf den Desktop bringen.
Die Wettervorhersage (Clear-Weather-Screenlet) geht über den Standard-Wetterbericht im GNOME-Panel hinaus, indem auch Informationen zur Tag-/Nachttemperatur, der Luftfeuchtigkeit und dem voraussichtlichen Wetter der nächsten Tage angezeigt werden. Der wesentliche Aspekt ist jedoch die permanente Anzeige auf dem Desktop; im Gegensatz dazu müssen die Wetterinformationen aus dem GNOME-Panel immer aktiv geöffnet werden. Das ist als grundsätzlicher Vorteil der Applets zu sehen - Informationen können im Vorübergehen konsumiert werden; es muss kein Programm gestartet werden.
Bevor das Wetter für den eigenen Standort angezeigt wird, muss man in den Einstellungen des Clear-Weather-Screenlets die lokale Position angeben. Diesen sogenannten ZIP-Code findet man auf der Seite von weather.com [5]. Dort kann nach dem Namen der Stadt gesucht werden, worauf der gesuchte ZIP-Code als Teil der URL angezeigt wird. Bei der Stadt Zürich sieht die URL von weather.com so aus:
http://www.weather.com/weather/today/Zurich+Switzerland+SZXX0033?from=enhsearch.
Der ZIP Code lautet SZXX0033 und wird im Feld „ZIP“ bei den Einstellungen des Clear-Weather-Screenlets erwartet.
Ein weiteres Beispiel für die Erhöhung des Informationsgehalts des Desktops ist das Feed-Reader-Screenlet. Mit ihm kann ein RSS-Feed abonniert werden. Das Screenlet zeigt die Überschriften der Feeds an, öffnet beim Darüberfahren mit der Maus den Kurztext der Nachricht und beim Klicken die zugehörige Internetseite. Möchte man mehrere Feeds im Auge behalten, so können weitere Instanzen des Feed-Reader-Screenlets gestartet und auf dem Desktop angeordnet werden.
Die beiden vorgestellten Screenlets beziehen ihre Informationen aus dem Internet, somit ist eine Internetverbindung erforderlich, um keine leeren Screenlets auf dem Desktop zu haben. Was sich trivial und selbstverständlich anhört, birgt eine kleine Tücke: Beim Starten erwarten die Screenlets eine bestehende Internetverbindung, ansonsten zeigen sie keinen Inhalt an. Wer nun zu Hause oder unterwegs seinen Zugang zum Internet über WLAN herstellt, wird feststellen, dass es einige Sekunden dauert, bis eine Verbindung aufgebaut wird. In dieser Zeit sind alle Screenlets gestartet und haben natürlich keine Verbindung zum Internet bekommen. Das ist nicht sehr schön, zumal die Screenlets erst nach einigen Minuten ein Update des Inhalts holen; solange bleiben sie leer.
Abhilfe schafft hier ein Skript, welches die Screenlets erst dann startet, wenn eine Internetverbindung besteht. Hierzu gibt es eine korrekte, aber komplizierte Lösung und eine Quick-and-Dirty-Lösung. Bei der korrekten Lösung wartet ein Skript solange, bis tatsächlich eine Internetverbindung besteht, bevor die Screenlets gestartet werden. Die einfachere Lösung wartet ein paar Sekunden und startet die Screenlets dann.
#!/bin/bash
# wait until internet is up 
# before screenlets are started
sleep 12
python -u /usr/share/screenlets/ClearWeather/ClearWeatherScreenlet.py &
python -u /usr/share/screenlets/FeedReader/FeedReaderScreenlet.py
Listing: start-screenlets.sh
Zuerst wird zwölf Sekunden lang gewartet - das ist ein Erfahrungswert, den jeder für seinen PC ermitteln muss. In den nachfolgenden Zeilen werden die beiden Screenlets gestartet. Wichtig ist, dass am Ende der Zeile das Zeichen & steht. Damit wird der Befehl als Hintergrundprozess gestartet. Lässt man es aus, wird der Feed-Reader erst gestartet, wenn das Clear-Weather-Screenlets beendet wird.
Das Skript interessiert sich nicht dafür, ob nach zwölf Sekunden die Internetverbindung tatsächlich besteht. Wer es gerne etwas komplizierter möchte, kann das zweite Skript verwenden:
#!/bin/bash
PING_URL=www.google.com
WAIT_FOR=30 # seconds
trap "exit 1" SIGTERM
sleep $WAIT_FOR && kill $$ &
while ! ping -c1 $PING_URL 2>/dev/null 1>&2; do sleep 1; done
kill %-
exit 0
Listing: test-inet.sh
Zuerst werden zwei Variablen definiert. Eine mit der Testadresse und eine Weitere mit der maximalen Wartezeit für die Verbindung. Die Zeile danach sorgt dafür, dass ein exit 1 gesendet wird, falls das Skript mit kill beendet werden sollte. Danach wird die Wartezeit gestartet, die nach Ablauf der Zeit diesem Skript mit kill den Garaus macht - das ist sozusagen der Selbstzerstörungsmechanismus für den Fall, dass überhaupt keine Internetverbindung hergestellt werden kann. In der while-Schleife wird die URL angepingt und eine Sekunde gewartet, bis der ping erfolgreich war, also die Internetverbindung besteht. Nach der Schleife könnten nun die Startkommandos für die Screenlets stehen, denn die Schleife wird erst bei bestehender Internetverbindung verlassen. Da nun alles bestens ist, wird die zuvor gestartete Selbstzerstörung abgeschaltet, indem ein kill an den letzten Hintergrundprozess geschickt wird. Zum Schluss wird das Skript erfolgreich verlassen. Falls das Skript bei Zeitablauf durch den Hintergrundprozess zwangsbeendet wird, geschieht dies mit exit 1, um einen nicht erfolgreichen Skriptablauf zu signalisieren.
Wie man sieht, ist das zweite Skript nicht so einfach zu verstehen wie das erste, obwohl dieses für den gewünschten Zweck völlig ausreichend ist. Möchte man es verwenden, so müssen die Aufrufe für die Screenlets aus den Startprogrammen entfernt werden. Lediglich der Eintrag „Screenlets Daemon“ muss dort bestehen bleiben. Anschließend fügt man den Aufruf des eigenen Skripts zu den Startprogrammen hinzu.

Desktop verschönern

Nachdem der Desktop nun durch die Screenlets um einiges informativer geworden ist, kann man sich über die Verschönerung Gedanken machen. Hierfür gibt es vielfältige Möglichkeiten, die von eigenen Hintergrundbildern bis zu anderen Desktop-Themen reichen. Die Hintergrundbilder haben den Nachteil, dass sie in der Regel statisch sind, so dass man jeden Tag das gleiche sieht.
Seit Ubuntu 9.10 gibt es zwar die wechselnden Bilder, die sich jedoch lediglich auf eine Handvoll verschiedener Bilder beschränken. Es ist interessanter, von einer dynamischen Quelle bei jedem Systemstart ein neues Bild zu beziehen. Das funktioniert einfacher als man denkt.
Der Trick besteht darin, eine Internetseite zu finden, auf der sich eine Bilddatei eindeutig identifizieren lässt. Die meisten Leser kennen wohl die Suchmaschine von Microsoft mit dem Namen „Bing“ [6]. Ob man diese Suchseite gut findet und verwenden möchte, sei jedem selbst überlassen - was man Microsoft jedoch zugestehen muss ist die gute Auswahl der Hintergrundbilder. Über Geschmack lässt sich bekanntlich nicht streiten, aber diese Bilder sind wirklich schön. Deshalb sind sie eine gute Quelle zur Verschönerung des Desktops. Mit einem simplen Python-Skript lassen sich die Bilder auf den Desktop zaubern.
Die Programmiersprache Python ist bei den populären Linuxdistributionen bereits vorhanden und muss daher nicht erst installiert werden. Das Skript ist sehr einfach und wird im Folgenden erklärt.
#!/usr/bin/env python
# Get the background image from
# Bing and make it the wallpaper

import urllib

def main():
  page = urllib.urlopen("http://www.bing.com").read()
  start = page.find("/fd\/hpk2\/", 0)
  end = page.find("jpg", start)
  url = "http://www.bing.com" + page[start:end+3]
  urllib.urlretrieve(url, "bing.jpg")

if __name__ == '__main__': main()
Listing: bingster.py
Hinweis: Grundlagen von Python werden im Folgenden nicht erklärt.
Zuerst wird mit import die Bibliothek urllib geladen, um auf Internetseiten zugreifen zu können. Die Hauptfunktion liest zuerst die Seite http://www.bing.com als String in die Variable page ein. Die nächste Zeile sucht in der Seite nach der signifikanten Zeichenfolge /fg/hpk2/, die das Verzeichnis darstellt, in dem Microsoft die Bing-Bilder ablegt. Anschließend wird nach der Zeichenfolge jpg gesucht, was das Ende der gesuchten Bildadresse markiert. Danach wird nun die Adresse des Bildes konstruiert indem man http://www.bing.com mit der gefundenen Bildadresse kombiniert. Zum Schluss wird das Bild unter der Adresse in url bei Bing abgeholt und im aktuellen Verzeichnis unter dem Namen bing.jpg abgespeichert.
Jetzt fehlen noch zwei Sachen: das Python-Skript muss in die von der Internetverbindung abhängigen Startprogramme aufgenommen werden. Das erweiterte Shellskript sieht dann wie in Listing 4 aus.
Man sollte nicht vergessen, den vorhergehenden Befehl mit einem & abzuschließen, damit er als Hintergrundprozess gestartet wird.
Außerdem muss dem Desktop gesagt werden, wo das neue Hintergrundbild zu finden ist. Dazu öffnet man den Dialog zur Einstellung des Hintergrundbildes, verweist auf das Bing-Bild und stellt je nach Geschmack den Stil auf „zentriert“ oder „Bildschirm füllen“. Nun wird bei jedem Start das aktuelle Bild von Bing geholt und auf dem Desktop gezeigt.
#!/bin/bash
# wait until internet is up before screenlets are started
sleep 12
python -u /usr/share/screenlets/ClearWeather/ClearWeatherScreenlet.py &
python -u /usr/share/screenlets/FeedReader/FeedReaderScreenlet.py &
python -u ~/bingster.py
Listing: inetwait.sh

In Zukunft

Über die Zukunft des Desktops gibt es diverse Meinungen. Die einen glauben an eine Verstärkung der Schreibtisch-Metapher wie im Bumptop-Video [7] schön zu sehen ist. Andere sehen alles in die Wolke wandern und stellen sich den Desktop im Browser vor und nennen ihn Webtop. Bei Ubuntu und dem GNOME-Desktop zeigen sich drei Entwicklungen [8]:
  1. stärkere Integration von sozialen Elementen wie beim „Me Menu“ [9]
  2. Ausrichtung auf Aktivitäten und multiple Desktops in der neuen GNOME Shell
  3. die Zeit als Organisationskriterium für Dokumente in GNOME Zeitgeist.
Betrachtet man den Eingangsbildschirm von aktuellen Smartphones, so steht hier die Anzeige von wichtigen Informationen im Vordergrund. Praktisch alle Smartphone-Desktops zeigen PIM-Informationen (Personal Information Management) an. Dazu gehören: nächste Aktivitäten (Kalender und Aufgaben), häufige Kontakte (Personen), Nachrichten (E-Mail, SMS, Messenger, Telefonate), Geo-Infos (Landkarten), häufige Anwendungen und Dokumente (Programme, Dokumente inklusive Multimedia-Inhalte). Die Hintergrundbilder von früheren Smartphone-Desktops sind mittlerweile vollständig von den oben genannten Info-Inhalten verdrängt worden. Diese Entwicklung ist auf PC-Desktops bisher nicht zu beobachten.

Fazit

Eine Renovierung der 30 Jahre alten Desktop-Metapher ist überfällig. Die grafische Benutzeroberfläche als reines Abbild des realen Schreibtisches wird den heutigen Bedürfnissen nach Information, Kommunikation und optischer Gestaltung nicht mehr gerecht. Moderne Desktops bieten vielfältige Möglichkeiten zur Anreicherung nach den persönlichen Anforderungen. Dennoch, der Desktop an und für sich wirkt verstaubt. Die ständige Weiterentwicklung der wichtigsten Linux-Desktops, KDE und GNOME, wird noch in diesem Jahr für frischen Wind und neue Konzepte sorgen. Das ist gut so, denn die Wüste lebt.
Links
  1. http://www.aresluna.org/attached/usability/articles/biurkonaekranie/pics/xerox
  2. http://forum.ubuntuusers.de/topic/den-desktop-aktiv-nutzen/
  3. http://wiki.ubuntuusers.de/Desklets
  4. http://screenlets.org/index.php/Download
  5. http://www.weather.com
  6. http://www.bing.com
  7. http://www.youtube.com/watch?v=M0ODskdEPnQ
  8. https://wiki.ubuntu.com/MeMenu
  9. http://live.gnome.org/ThreePointZero/Plan
Autoreninformation
Ralf Hersel schreibt in erster Linie für Ein- und Umsteiger auf Linux. Sein Fokus liegt auf relevanten Informationen, die die tägliche Arbeit mit Linux erleichtern und anreichern. Er ist überzeugt davon, dass Linux das beste Betriebssystem für Computerneulinge ist.
Diesen Artikel kommentieren

Zum Index

Eigene Paketquellen zusammenstellen mit local-apt

von Hauke Goos-Habermann
Dieser Artikel zeigt eine weitere Methode, Pakete mit Abhängigkeiten herunterzuladen. Anders als in dem Artikel „Raus aus der Ubuntu-Paketabhängigkeitshölle“, freiesMagazin 01/2010 [1], funktioniert diese Variante ohne Root-Rechte und unabhängig von der verwendeten Distribution, solange diese die APT-Programme wie apt-get bereitstellt.
Da APT bereits alle nötigen Funktionen enthält, um Pakete inklusive aller Abhängigkeiten herunterzuladen, besteht der eigentliche „Trick“ darin, APT so zu konfigurieren, dass eine Paketquelle unabhängig von der des übrigen Systems angelegt und verwaltet werden kann. In jedem beliebigen Verzeichnis kann eine Datei- und Verzeichnisstruktur angelegt werden, die von APT akzeptiert wird.

Vorbereitungen

Verzeichnisstruktur anlegen

Die folgenden Schritte werden in einer Shell als normaler Benutzer ausgeführt. Zuerst legt man ein neues Verzeichnis an und wechselt hinein. In diesem Verzeichnis werden dann alle weiteren Schritte ausgeführt.
$ mkdir /tmp/testquelle
$ cd /tmp/testquelle
APT benötigt einen Satz von Dateien und Verzeichnissen, um die Pakete und zusätzliche Informationen ablegen zu können. Unter lists und lists/partial werden die Paketindizes gespeichert. Diese enthalten die Liste aller herunterladbaren Dateien abhängig von der sources.list (mehr dazu später).
$ mkdir -p ./lists/partial
$ mkdir -p ./archives/partial
$ mkdir -p ./cache
$ touch ./lists/lock ./status
APT speichert die komplett heruntergeladenen Pakete unter archives und noch nicht vollständige Pakete unter archives/partial. Für die Paketsuche wird das Verzeichnis cache von APT erwartet. Damit während der Aktualisierung der Paketindizes kein weiterer APT-Aufruf gestartet werden kann, benötigt APT noch die leere Datei lists/lock.
Die Datei status würde in einem normalen System schließlich Informationen über deinstallierte und installierte Pakete enthalten. Zum Herunterladen von Paketen wird sie zwar nicht direkt gebraucht, aber APT beginnt nicht mit der Arbeit, wenn sie fehlt.

Paketquellendatei erstellen

Debian und alle von Debian abgeleiteten Distributionen (z. B. Ubuntu/Kubuntu) verwenden eine Datei, in der die Paketquellen (normalerweise Server im Internet) eingetragen sind, von der die Softwarepakete heruntergeladen werden. Diese Datei heißt sources.list und befindet sich im Normalfall im Verzeichnis /etc/apt.
Möchte man Pakete für die gerade verwendete Distribution aus dem Internet laden, so genügt ein simples Kopieren von /etc/apt/sources.list in das aktuelle Verzeichnis:
$ cp /etc/apt/sources.list .
Dann hat man aber nur die Pakete, die sich auch so herunterladen und installieren lassen.
Interessant wird die Sache allerdings, wenn man eine neue sources.list anlegt bzw. die kopierte verändert und in dieser die Paketquelle(n) einer fremden Distribution angibt. Hierdurch kann man gänzlich andere Pakete als die der eingesetzten Distribution herunterladen. Beispielsweise könnte man folgende Zeile eintragen, wenn man Pakete aus Debian unstable haben möchte, selbst wenn man Ubuntu einsetzt:
deb http://ftp2.de.debian.org/debian/ unstable main non-free contrib

Pakete suchen und herunterladen

Paketindex heruntergeladen

Damit APT weiß, welche Pakete es überhaupt gibt, lädt es hierfür Indexdateien herunter. Hierbei ist der apt-get update-Aufruf so zu erweitern, dass alles auf dem aktuellen Verzeichnis arbeitet:
$ apt-get update -o=Dir::Cache=./cache -o=Dir::Cache::archives=./archives -o=Dir::State::status=./status -o=Dir::State=. -o=Dir::Etc::sourcelist=./sources.list

Pakete suchen

Beim Suchen im lokalen Verzeichnis werden die gleichen Anpassungen vorgenommen:
$ apt-cache search -o=Dir::Cache::archives=./archives -o=Dir::State::status=./status -o=Dir::State=. -o=Dir::Etc::sourcelist=./sources.list <Suchbegriff>

Pakete herunterladen

Das Herunterladen von Paketen geschieht ebenfalls mit den Anpassungen und dem üblichen APT-Befehl. Wichtig hierbei ist, dass zusätzlich der Parameter -d angegeben wird, damit APT die Pakete nur herunterlädt und nicht versucht, diese zu installieren. Nach Abschluss des Downloads befinden sich die Pakete inklusive der benötigten Abhängigkeiten im Unterverzeichnis archives.
$ apt-get install -d -o=Dir::Cache=./cache -o=Dir::Cache::archives=./archives -o=Dir::State::status=./status -o=Dir::State=. -o=Dir::Etc::sourcelist=./sources.list <Pakete>

Quellpakete herunterladen

Das Herunterladen von Quellpaketen geschieht analog. Dabei ist der Parameter install durch source zu ersetzen und darauf zu achten, dass in der sources.list die zugehörige Quelle für Quellpakete eingetragen ist. Zum Beispiel gehört zu dem oben angegebenen Repository das folgende Quellrepository:
deb-src http://ftp2.de.debian.org/debian/ unstable main non-free contrib

local-apt

Um die Anwendung einfacher zu gestalten, gibt es die Skriptsammlung local-apt [2] als fertiges Paket, das die vorgestellten Schritte in einfachen Kommandos zusammenfasst und nach Anlegen einer sources.list in jedem beliebigen Verzeichnis verwendet werden kann:

local-apt installieren

Möchte man local-apt häufiger benutzen, so bietet sich an, das Paket fest im System zu installieren. Hierzu lädt man das local-apt-Paket von der Dodger-Tools-Seite [3] herunter und installiert es z. B. mit folgendem Aufruf:
$ cd /tmp
$ wget http://dodger-tools.sourceforge.net/debs/local-apt_1.0-38_all.deb
# dpkg -i local-apt_1.0-38_all.deb
Links
  1. http://www.freiesmagazin.de/freiesMagazin-2010-01
  2. http://dodger-tools.sourceforge.net/
  3. http://dodger-tools.sourceforge.net/debs/#end
Autoreninformation
Hauke Goos-Habermann arbeitet freiberuflich als Entwickler und Trainer für Linux und Open-Source-Software. Er ist zudem Hauptentwickler des Softwareverteilungssystems m23 und weiterer Open-Source-Software sowie Mitorganisator der Kieler Linux- und Open-Source-Tage.
Diesen Artikel kommentieren

Zum Index

Die Z-Shell (zsh) - Eine mächtige Alternative zur Bash

von Marcel Jakobs
Die Standardshell auf den meisten Linux-Systemen ist die Bash [1]. Sie ist sehr mächtig und erlaubt es, viele Aufgaben zu automatisieren. Dieser Artikel soll sich einer sehr interessanten, noch mächtigeren Shell widmen, der Z-Shell - kurz zsh [2].

Installation und Start

Die zsh lässt sich auf den meisten Linux-Systemen aus der Paketverwaltung über das Paket zsh installieren. Danach kann man sie mit dem Aufruf von
$ zsh
ausführen. Um sie zur Standardshell zu machen, genügt der Befehl
$ chsh -s /usr/bin/zsh BENUTZERNAME
wobei BENUTZERNAME durch den entsprechenden eigenen Benutzernamen ersetzt werden und der Pfad zu zsh stimmen muss. Wo zsh liegt, kann man mit dem folgenden Befehl herausfinden:
$ which zsh
Auf manchen Systemen liegt zsh beispielsweise in /bin.
Die zsh bedient sich Elementen der Bash, der Korn-Shell (ksh) und der TENEX-C-Shell (tcsh - eine erweiterte C-Shell). Sie ist sehr gut konfigurierbar und fast jedes Verhalten der Bash kann nachgeahmt werden, sodass der Umstieg sehr leicht fällt. Bestehende Bash-Scripte können natürlich weiterhin genutzt werden, wenn der Shebang entsprechend gesetzt ist (siehe „Shebang - All der Kram“, freiesMagazin 11/2009 [3]):
#!/bin/bash

Beispiele

Im Folgenden sollen einige interessante Vorteile der zsh kurz durch Beispiele beschrieben werden. Da die zsh sehr viele Möglichkeiten bietet, ist es aber nicht möglich, alles im Detail zu erläutern.
Hinweis: Optionen werden mit dem Befehl setopt gesetzt, gelten aber nur für die aktuelle Sitzung. Um sie dauerhaft zu aktivieren, muss man diese in die Konfigurationsdatei ~/.zshrc schreiben.

Autokorrektur

Die zsh beherrscht einen Mechanismus, der kleine Tippfehler automatisch korrigiert. Hat man in einem Ordner eine Datei testfile.txt und möchte diese nach file2.txt kopieren, so führt man in der Regel folgenden Befehl aus:
$ cp testfile.txt file2.txt
Wie von der Bash gewohnt, nutzt man dafür die Autovervollständigung mittels „Tab“. Bei einem Verschreiber wird dieser in der zsh automatisch korrigiert.
Beispiel:
$ cp tsetf<TAB>
wird automatisch korrigiert und zu
$ cp testfile.txt
vervollständigt.
Die Autokorrektur aktiviert man mit der Option correct.

Globale Aliase

Neben den normalen Aliasen für Kommandos, wie man sie aus der Bash kennt, gibt es in der zsh noch globale Aliase, die überall im Befehl genutzt werden können, nicht nur am Anfang.
Zwei Beispiele verdeutlichen dies:
$ alias -g G='| grep'
$ alias -g L='| less'
Dies erzeugt die globalen Aliase G und L, die man hinter alle möglichen Befehle schreiben kann, um die Ausgabe des entsprechenden Befehls in grep oder less umzuleiten:
$ ls G txt
entspricht dem Befehl
$ ls | grep txt
oder
$ ps -e L
entspricht
$ ps -e | less
Natürlich ist dann auch Folgendes möglich:
$ ls G txt L
was folgendem Befehl entspricht:
$ ls | grep txt | less

Suffix-Aliase

Mit Suffix-Aliasen kann man Programme festlegen, mit denen bestimmte Dateitypen (anhand ihrer Endung) geöffnet werden sollen. Man braucht dann nur noch den Namen der Datei eingeben und sie wird mit dem entsprechenden Programm geöffnet.
Beispiel:
$ alias -s pdf=evince
legt einen Alias für PDF-Dateien an, die mit Evince geöffnet werden sollen. Danach reicht die Eingabe von
$ dokument.pdf
und die Datei dokument.pdf wird mit Evince geöffnet.

Aliase für Verzeichnisse: Hashes

Mit sogenannten Hashes lassen sich Aliase für beliebige Verzeichnisse anlegen. Auf diese kann dann sehr einfach zugegriffen werden. Mit dem Befehl
$ hash -d perl=~/development/scripting/perl
legt man einen Hash namens perl für das Verzeichnis ~/development/scripting/perl an. Auf dieses Verzeichnis kann man jetzt mit ~perl zugreifen - auch innerhalb eines Befehls, wie folgendes Beispiel zeigt:
$ cp testscript.pl ~perl
Dieser Befehl kopiert die Datei testscript.pl in das Verzeichnis ~/development/scripting/perl.

Auto-CD

Mit der Option autocd kann man zum Wechseln in ein Verzeichnis einfach den Namen eines Verzeichnisses eingeben und das Kommando cd davor weglassen. Wenn es keinen Befehl gibt, der so heißt wie das Verzeichnis, wird in das Verzeichnis gewechselt - falls es existiert.

Kurze for-Schleifen

Statt einem
$ for i in *.eps; do epstopdf $i; done
um alle EPS-Dateien in einem Verzeichnis in PDF-Dateien umzuwandeln, genügt unter zsh die kürzere Form
$ for i (*.eps) epstopdf $i

Globale History

Die History, die man mit der „Pfeil hoch“-Taste durchgehen kann, kann man in der zsh so einstellen, dass sie in jeder zsh-Instanz gleich ist. Das heißt, man hat nicht mehr für jedes Fenster eine eigene History, sondern kann mit der Taste „Pfeil hoch“ auch Befehle auswählen, die in anderen Fenstern eingegeben wurden.
Die History wird jedoch nur nach jedem Befehl aktualisiert. Das heißt, man muss gegebenfalls einmal „Return“ drücken, damit die Befehle aus einem anderen Fenster verfügbar sind.
Dieses Verhalten kann mit der Option share_history aktiviert werden.

Directory Stack

Wie die Bash hat die zsh auch einen Directory Stack. Mit dem Befehl pushd kann man das aktuelle Verzeichnis auf den Stack legen und mit popd das jeweils letzte Verzeichnis vom Stack nehmen und dorthin springen.
Mit der Option auto_pushd legt die zsh automatisch jedes Verzeichnis auf den Directory Stack, aus welchem man in ein anderes Verzeichnis wechselt. So hat man immer eine History der Verzeichnisse, in denen man war und kann mit popd sehr einfach wieder in Verzeichnisse wechseln, die man vorher besucht hatte.

Globbing

Die Nutzung von Wildcards - unter zsh „Globbing“ genannt - ist bei der Z-Shell etwas mächtiger als in der Bash.
Zunächst gibt es rekursives Globbing. So kann man mit dem Befehl
$ ls **/*.html
alle HTML-Dateien im aktuellen Verzeichnis und allen Unterverzeichnissen auflisten lassen.
Es gibt jedoch auch noch Qualifier, um Dateien mit bestimmten Eigenschaften auszuwählen. Diese schreibt man in runde Klammern. So kann man mit . normale Dateien, mit / Verzeichnisse und mit @ symbolische Verweise prüfen. Praktisch ist das beispielsweise, wenn man allen Verzeichnissen ab einem bestimmten Verzeichnis die Rechte 755 und allen Dateien 644 vergeben möchte. Dies kann man mit den folgenden zwei Befehlen bewerkstelligen, anstatt mit find und exec zu arbeiten:
$ chmod 755 **/*(/)
$ chmod 644 **/*(.)
Zusätzlich gibt es auch Qualifier für verschiedene Dateirechte. Folgender Befehl listet alle Dateien auf, die von allen beschrieben werden können:
$ ls **/*(.W)
Auch nach der Dateigröße lässt sich suchen:
$ print **/*(L0)
listet alle leeren Dateien auf.
Auch die Sortierung lässt sich beliebig anpassen. Mit dem Befehl
$ print *(oL)
listet man alle Dateien der Größe nach von klein nach groß auf. Mit großem O wird die Sortierung umgekehrt.
Somit lässt sich mittels Globbing in der zsh das Kommando find fast komplett ersetzen.
Die hier gezeigten Beispiele sehen auf den ersten Blick recht kompliziert und kryptisch aus. Wenn man das Prinzip erst einmal verstanden hat und die wichtigsten Qualifier kennt, ist es aber ganz einfach und sehr praktisch.
Es gibt noch jede Menge weiterer Qualifier und Möglichkeiten für das Globbing (z. B. nur das erste oder eine bestimmte Anzahl von Elementen auszuwählen). Im zsh-Manual [4] gibt es eine Liste der Glob-Qualifier.
Um alle Möglichkeiten nutzen zu können, sollte die Option extended_glob gesetzt werden.

Vervollständigung

Die zsh hat wie die Bash einen Vervollständigungsmechanismus, sodass man mit „Tab“ Kommandos, Dateinamen und vieles mehr vervollständigen kann. In der zsh ist dieser Mechanismus jedoch extrem gut konfigurier- und programmierbar. So kann man beispielsweise beim scp-Befehl, der Dateien über SSH kopiert, die Verzeichnisse auf dem entfernten Rechner vervollständigen [5] und genau definieren, welche Programme mit welchen Dateitypen zusammenarbeiten können. Für sehr viele Programme ist dies schon vorgefertigt, sodass ein
$ latex doku<TAB>
automatisch zu
$ latex dokument.tex
vervollständigt wird.
Sehr praktisch ist auch die Menüfunktion. So wird beim ersten Druck auf die „Tab“-Taste wie in der Bash so weit vervollständigt, bis nicht mehr eindeutig entschieden werden kann, welche Datei (bzw. welcher Befehl) gemeint ist. Ein weiterer Druck auf die „Tab“-Taste listet alle weiteren Möglichkeiten auf und jeder weitere Druck geht diese Möglichkeiten durch.
Wenn man also Dateien test.txt, testfile1.txt und testfile2.txt hat und Folgendes eingibt
$ ls te<TAB>
so wird zuerst auf test vervollständigt. Ein weiterer Druck gibt alle Möglichkeiten aus:
testfile1.txt testfile2.txt
test.txt
und ein dritter Druck auf die „Tab“-Taste vervollständigt den Befehl zu
$ ls testfile1.txt
Das ist viel schneller als erst ein f einzugeben, um erneut „Tab“ zu drücken, und dann die 1 einzugeben, um wiederum „Tab“ zu drücken, bis der Dateiname endgültig vervollständigt wird.
Ein weiterer Druck auf „Tab“ nimmt dann die nächste Möglichkeit. In diesem Beispiel also
$ ls testfile2.txt
und so weiter.

Expansion

Mit der „Tab“-Taste kann man in der zsh nicht nur Kommandos, Dateinamen etc. vervollständigen, sondern auch Variablen expandieren. Viele kennen die spezielle Variable !!, die den zuletzt ausgeführten Befehl enthält. Wenn man
$ !!
eingibt und „Tab“ drückt, wird dies automatisch zum zuletzt ausgeführten Befehl expandiert. Genauso kann man auch jede andere Variable expandieren:
$ $PWD
und „Tab“ wird beispielsweise zu /home/zimon/development, wenn man sich gerade in diesem Verzeichnis befindet.

History-Kontrolle

Wie bei der Bash auch, kann man in der zsh die History durchsuchen. Die zsh geht jedoch so weit, dass man auch nach bestimmten Parametern suchen kann.
Ein Beispiel:
$ cp ../perl/foo.pl ~/development/projektordner
Danach kommen ein paar andere Kommandos. Möchte man nun eine andere Datei in den gleichen Projektordner kopieren, reicht folgende Eingabe:
$ cp ../perl/bar.pl !?proj?:3
Mit !? wird nach einem vorherigen Befehl gesucht. Das proj ist eine Zeichenkette, die in diesem Befehl vorkam. Mit dem ?:3 wird das dritte Argument genutzt. Durch Expansion (siehe oben) kann man durch einen Druck auf „Tab“ diesen Ausdruck auch noch expandieren, um sicherzugehen, dass das richtige Argument ausgewählt wurde. Man kann zwar mit „Alt“ + „+“, wie in der Bash, die jeweils letzten Argumente durchgehen. Auf diese Weise kann man aber auch das zweite von drei Argumenten suchen.
Es gibt noch wesentlich mehr Möglichkeiten die History zu durchsuchen und zu verwenden.

Hochkonfigurierbarer Prompt

In der Z-Shell kann man nicht nur die linke Seite des Prompts, sondern auch die rechte Seite konfigurieren. Der Prompt in der Abbildung ist eine abgeänderte Version von Phil!s ZSH Prompt [6]).
Die Anzeige der Uhrzeit inklusive Sekunden ist recht praktisch, da man daran sieht, wie lange ein Befehl gedauert hat oder wann man ihn ausgeführt hat. Es gibt jedoch auch die Möglichkeit, automatisch die Ausgabe von time bei der Beendigung eines Befehls ausgeben zu lassen, der länger als eine vorher definierte Zeit benötigt hat.

ZLE-Widgets

Der Z-Line-Editor (ZLE [7]) ist sozusagen die Eingabezeile in der zsh. Mit diesem kann man sich kleine Programme schreiben, die einem das Leben vereinfachen.
Ein Beispiel wäre ein Programm, dass bei der Eingabe von ... diese zu ../.. umwandelt. Jeder weitere Punkt wird wieder umgewandelt. So kann man recht einfach folgendes eingeben:
$ cd ..../directory
Auf dem Bildschirm erscheint jedoch folgendes:
$ cd ../../../directory
Diese Erweiterung ist nicht Standard der Z-Shell. Man kann sie aber durch folgenden Code in der Konfigurationsdatei ~/.zshrc erzeugen:
rationalise-dot() {
    if [[ $LBUFFER = *.. ]]; then
        LBUFFER+=/..
    else
        LBUFFER+=.
            fi
}
zle -N rationalise-dot
bindkey . rationalise-dot

Automatisches tee-ing

In der Z-Shell kann man die Ausgabe eines Kommandos recht einfach in mehrere verschiedene Dateien umleiten. Statt wie in der Bash
$ ls | tee -a all | tee actual
zu schreiben, kann man in der zsh einfach
$ ls >>all >actual
eingeben. Beide Befehle führen ls aus und hängen die Ausgabe an die Datei all an und schreiben sie in die Datei actual, wobei der Inhalt der letzten dabei überschrieben wird. Möchte man die Ausgabe wie beim original tee-Befehl auch auf dem Bildschirm sehen, so leitet man sie auch noch auf STDOUT um:
$ ls >>all >actual >&1

Verzeichnisse durch Ersetzung wechseln

Ein Beispiel sollte dies am besten erklären. Angenommen, man hat die zwei Verzeichnisse ~/development/scripting/perl/modules und ~/development/scripting/python/modules und befindet sich in ~/development/scripting/perl/modules, so kann man durch den Befehl
$ cd perl python
in das Verzeichnis ~/development/scripting/python/modules wechseln.
Bei einem cd-Kommando mit zwei Parametern wird im aktuellen Verzeichnis-String das erste Wort durch das zweite ersetzt. Hier also perl durch python.

Fazit

Viele der hier beschriebenen Beispiele sind sicherlich auch mit Erweiterungen in der Bash möglich. Sie zeigen aber auf jeden Fall, dass die Z-Shell jede Menge interessante Möglichkeiten bietet. Die oben gezeigten Funktionen sind aber meist nur angerissen und liefern nur eine kleine Auswahl von dem, was die Z-Shell zur Verfügung stellt. Darüber hinaus besitzt die Z-Shell eine ganze Reihe Module (z. B. für Matheoperationen oder einen eigenen FTP-Client), die man bei Bedarf laden kann. Sehr schön ist auch die Möglichkeit, den Screen-Titel von der zsh aus zu setzen [8]. Es lohnt sich auf jeden Fall, diese Shell etwas genauer zu betrachten.
Im Netz findet man sehr viele Seiten, welche die Funktionen der zsh näher beschreiben, darunter Michael Prokops zsh-Liebhaberseite [9], das ZshWiki [10] oder „Zzappers Best of ZSH Tips“ [11].
Links
  1. http://tiswww.case.edu/php/chet/bash/bashtop.html
  2. http://zsh.sourceforge.net/
  3. http://www.freiesmagazin.de/freiesMagazin-2009-11
  4. http://zsh.sourceforge.net/Doc/Release/zsh_toc.html
  5. http://blog.pimpmyshell.de/2007/01/21/ssh-completion-mit-zsh/
  6. http://aperiodic.net/phil/prompt/
  7. http://zsh.sourceforge.net/Doc/Release/zsh_17.html
  8. http://zinformatik.de/linux/titel-von-screen-fenstern-automatisch-von-vim-bash-und-zsh-setzen/
  9. http://michael-prokop.at/computer/tools_zsh_liebhaber.html
  10. http://zshwiki.org/
  11. http://rayninfo.co.uk/tips/zshtips.html
Autoreninformation
Marcel Jakobs arbeitet gerne auf der Kommandozeile. Auf Anregung eines zsh-Nutzers hin hat er sich diese Shell genauer angesehen und ist aufgrund der vielen Möglichkeiten dabei geblieben.
Diesen Artikel kommentieren

Zum Index

Google Charts - Diagramme über das Internet erstellen

von Jochen Schnelle
Die Google Charts API [1] stellt eine Möglichkeit dar, Diagramme schnell und einfach zu generieren, ohne zusätzliche Software, nur mit Hilfe eines Web-Browsers.

Einleitung

Viele Diagramme, die Daten graphisch visualisieren, werden mit Hilfe der bekannten Office-Programme wie OpenOffice.org Calc, Gnumeric, Microsoft Excel etc. erstellt. Dies hat auch Vorteile, wenn man aus einer Vielzahl von Einzeldaten gezielt bestimmte Ausschnitte darstellen möchte. Will (oder muss) man jedoch dynamisch generierte Daten, beispielsweise aus einer Datenbank-Abfrage, visualisieren und möchte das Diagramm dann auch noch in eine Internet-Seite einbinden, so ist dies mit den Office-Programmen nur schwerlich möglich.
Für viele der gängigen Programmiersprachen gibt es Bibliotheken, welche ebenfalls das Erstellen von Diagrammen ermöglichen. Allerdings müssen diese erst auf dem System installiert werden und erfordern eine mehr oder minder steile Lernkurve und Programmiererfahrung in der entsprechenden Sprache.
Eine Alternative stellt hier die Google Charts API [1] dar. Mit Hilfe von Google Charts können Diagramme einfach per Web-Browser erstellt werden, in dem man alle Parameter in der URL übergibt. Als Ergebnis wird dann eine PNG-Grafik mit dem entsprechendem Diagramm zurück geliefert.

Diagrammarten

Über die Google Chart API lassen sich alle gängigen Diagrammtypen wie Balken-, Linien-, Punkt- und Tortendiagramme generieren. Weiterhin können Venn-Diagramme [2], Landkarten-Diagramme, QR-Barcodes [3] und sogenannten Google-O-Meter-Diagramme erzeugt werden. Eine vollständige Übersicht findet man auf der Chart-Gallery-Seite [4]. Je nach Diagrammart stehen diverse Optionen bei der Diagrammerstellung zur Verfügung [5] wie z. B. Achsbeschriftung, Anzeigen von Werten, Markierung, Einfärben von Diagrammbereichen oder eine zweite Achse.

Nutzungsbedingungen

Im Gegensatz zu anderen Serviceangeboten und Applikationen von Google ist weder eine Registrierung noch ein Benutzerkonto bei Google notwendig. Google Charts kann direkt und ohne Weiteres benutzt werden. Google erlaubt bis zu 250.000 Diagramme pro Tag, mehr sind auf Anfrage möglich. Auch wenn die Nutzungsbedingungen sehr moderat sind, empfiehlt es sich, vor dem Einbinden von Diagrammen auf der eigenen Webseite die „Terms of Services“ [6] und die „Privacy Policy“ [7] zu lesen.

Diagramm erzeugen

Im Folgenden werden einige der möglichen Diagrammtypen sowie diverse Optionen bei der Diagrammerzeugung gezeigt. Dabei wird von dem fiktiven Beispiel ausgegangen, dass die Besucherzahlen einer Webseite pro Quartal der Jahre 2009 und 2008 visualisiert werden sollen. Als Zahlen werden für 2009 die Werte 1210, 980, 670 und 1050 und für 2008 die Werte 1100, 1025, 890 und 960 angenommen.
Wie oben bereits erwähnt, werden die Daten für die Diagramme komplett in der URL übergeben. Die Grund-URL für alle Abfragen lautet dabei
http://chart.apis.google.com/chart?
Danach folgen die Daten bzw. Parameter, jeweils durch ein Und-Zeichen & getrennt.

Benötigte Parameter

Unabhängig von der Diagrammart werden drei Angaben immer benötigt. Dies sind die Diagrammart, die Größe des Diagramms in Pixeln sowie die Daten, welche dargestellt werden sollen. Alle weiteren Angaben sind optional.
Die Art des Diagramms wird mit dem Parameter cht=, gefolgt von einem zwei oder drei-stelligen Buchstaben-/Zahlencode angegeben. So würde z. B. cht=bvg ein Balkendiagramm mit senkrechten Balken erzeugen oder cht=lc ein einfaches Liniendiagramm. Eine Übersicht über alle Diagramme und deren Abkürzung findet man auf der Chart-Gallery-Seite [4].
Die Größe des Diagramms wird dem Parameter chs=, gefolgt von der Größenangabe in Pixel, angegeben. Die Größe muss dabei immer in der Form „Breite×Höhe“ angegeben werden, also z. B. chs=500x400. Die Gesamtgröße des Diagramms ist allerdings auf 30.000 Pixel beschränkt.
Die Daten, die im Diagramm dargestellt werden sollen, werden mit dem Parameter chd= übergeben. Die Daten werden grundsätzlich codiert angegeben, was im folgenden Abschnitt genauer erklärt wird.
Ein vertikales Balkendiagramm mit einer Größe von 300×200 Pixeln und Extended Codierung - hier werden die Daten 2009 aus dem oben genannten Beispiel dargestellt - ist über folgende URL abrufbar:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=e:S6,PU,Ke,QA
Da die Charts API ein PNG-Bild zurückliefert, welches von allen gängigen Browsern dargestellt werden kann, kann man das Diagramm auch einfach in eine HTML-basierte Webseite einbinden:
<html>
  <body>
    <h1>Ein Google Charts Diagramm</h1>
    <img src="http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=e:S6,PU,Ke,QA">
  </body>
</html>
Listing: google-charts-diagramm.html

Daten und Datencodierung

Wie oben bereits erwähnt werden die Daten für das Diagramm an Google Charts codiert übergeben, wobei codiert hier nicht im Sinne von „verschlüsselt“ gemeint ist. Es gibt drei verschiedene Codierungen: Text, Simple und Extended [8]. Die Codierung wird in Form eines einzelnen Buchstabens festgelegt, welcher an der Parameter chd= angehängt wird:
Die Textcodierung ist eigentlich gar keine Codierung, da hier die Werte als Zahl unverändert übergeben werden. Der vollständige Parameter für die Zugriffszahlen 2009 gemäß Beispiel ist also chd=t:1210,980,670,1050. Allerdings geht die Textcodierung per Voreinstellung davon aus, dass alle Werte im Bereich von 0 bis 100 liegen. Alles, was darüber liegt, wird einfach bei 100 abgeschnitten. Daher ist bei Zahlen größer 100 zusätzlich eine Angabe der Skalierung notwendig, in der der Min- und Max-Wert explizit angegeben wird. Der entsprechende Parameter lautet chds=, für das Beispiel hier also chds=0,1210. Der Min- und Max-Wert müssen dabei nicht den tatsächlichen Werten entsprechen. Google Charts benutzt die Werte, um die Datenpunkte in Relation zur Höhe der Y-Achse, welche dem Max-Wert entspricht, zu setzen. Möchte man also, dass das Diagramm etwas höher ist als der höchste Datenpunkt, dann würde man hier z. B. chds=0,1500 setzen. So deckt die Y-Achse den Bereich von 0 bis 1500 ab. Liegen alle Datenwerte im Bereich 0 bis 100, wie z. B. Prozentwerte, dann ist die Angabe von chds= nicht notwendig.
Bei der Codierung „Simple“ stehen 63 Werte zur Verfügung, die über die 26 Buchstaben des Alphabets in Groß- und Kleinschreibung und die Zahlen von 0 bis 9 dargestellt werden. Die Codierung „Extended“ nutzt die gleichen Zeichen wie Simple und zusätzlich noch den Punkt . sowie das Minus-Zeichen -, aber es werden immer Paare von Zeichen verwendet, wie man auch im obigen Beispiel sieht. Dadurch ist ein Wertebereich von 0 bis 4095 möglich. Natürlich kann man auch größere Werte mit Hilfe von Simple und Extended darstellen. Dazu muss man die darzustellenden Werte auf 63 bzw. 4095 normieren. Auf der Übersichtsseite [9] findet man eine JavaScript-Funktion, welche dies für die Simple-Codierung direkt durchführt.
Die Verwendung von Simple- und Extended-Codierungen hat zwei Vorteile: Zum einen wird die URL kürzer, was nicht zu unterschätzen ist, gerade wenn man komplexe Diagramme mit vielen Parametern erzeugt. Zum anderen wird die Y-Achse immer automatisch richtig skaliert. Der Nachteil ist, dass die Daten nicht direkt ablesbar sind, was gerade bei der Überprüfung von Diagrammen hinderlich sein kann.
Natürlich ist es auch, egal für welche Codierung, möglich, mehr als einen Datensatz an die Charts API zu übergeben. Dazu müssen die einzelnen Datensätze mittels Pipe-Zeichen | getrennt werden. Möchte man die Werte von 2009 und 2008 aus dem Beispiel in einem Balkendiagramm darstellen, so lautet die entsprechenden URL unter Verwendung der Text-Codierung
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050|1100,1025,890,960&chds=0,1300
Nun ist dieses Diagramm nicht besonders aussagekräftig, weil Google Charts für beide Datenreihen die gleiche Farbe verwendet. Man kann jedoch ohne weiteres eigene Farbvorgaben machen, indem man den Parameter chco= übergibt. Die Farbwerte werden in den HTML-üblichen Hexadezimal-Werten für den RGB-Farbraum übergeben. Im folgenden Beispiel wird die erste Datenreihe rot, die zweite blau dargestellt:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050|1100,1025,890,960&chds=0,1300&chco=ff0000,0000ff
Möchte man die Diagrammart ändern, so tauscht man einfach den Wert von cht= aus, z. B. cht=lc (statt cht=bvg) für ein Liniendiagramm, cht=p3 für ein Torten-Diagramm oder cht=bhg für ein horizontales Balkendiagramm.

Beschriftungen für Diagramme

Wie man in den obigen Beispielen sieht, erzeugt Google Charts - im Gegensatz zu Office-Programmen - keine Achsenbeschriftungen, Legenden etc. für die Diagramme. Beschriftungen müssen explizit als Parameter in der URL angegeben werden.
Einen Diagrammtitel erzeugt man mit dem Parameter chtt=. Besteht der Titel aus mehr als einem Wort, so müssen die Worte per Plus-Zeichen verbunden werden. Ein Zeilenumbruch wird per Pipe-Zeichen erzeugt:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050&chds=0,1300&chtt=Besucher+Website|pro+Quartal+2009
Eine Legende erzeugt man mit dem Parameter chdl= , gefolgt von dem Text, der in der Legende erscheinen soll. Mehrere Worte müssen wieder per Plus-Zeichen verbunden werden; die Beschriftungen für die einzelnen Datenreihen werden per Pipe-Zeichen getrennt:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050|1100,1025,890,960&chds=0,1300&chco=ff0000,0000ff&chdl=2009|2008
Um Werte auf der X- und Y-Achse anzuzeigen, muss man den Parameter chxt= angeben und als Wert spezifizieren, für welche Achsen die Werte angezeigt werden sollen. Google Charts kennt vier verschiedene Achsen, wobei hier nur die X- und Y-Achse genutzt werden, d. h. der volle Parameter lautet chxt=x,y:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050&chds=0,1300&chxt=x,y
Allerdings beschriftet Google Charts die Werte so nur mit den Standardvorgaben, d. h. die X-Achse wird 1,2,...,n durchnummeriert, die Y-Achse wird von 0 bis 100 beschriftet, unabhängig von den tatsächlich übergebenen Daten. Entspricht die Beschriftung nicht den eigenen Werten, wie in diesem Beispiel, so muss man den Text für die Beschriftung zusätzlich angeben. Dies geschieht mit dem Parameter chxl= . Die Übergabe der Werte ist hier etwas komplexer. Als erstes muss die fortlaufende Nummer der Achse angegeben werden. Die Nummerierung entspricht der Reihenfolge der Achsen bei chxt=, die Zählung beginnt jedoch bei 0. Dann werden die Werte getrennt durch ein Pipe-Zeichen angegeben.
Gemäß dem hier verwendeten Beispiel soll die X-Achse mit „1Q, 2Q, 3Q, 4Q“ beschriftet werden, die Y-Achse von 0 bis 1500 in 500er Schritten:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050&chds=0,1500&chxt=x,y&chxl=0:|1Q|2Q|3Q|4Q|1:|0|500|1000|1500
Per Voreinstellung wird die Beschriftung äquidistant angeordnet, was für das obige Beispiel passend ist. Benötigt man jedoch eine Beschriftung, bei der eine Positionierung nicht-äquidistant erfolgen soll, so muss man zusätzlich die Position der Beschriftung über den Parameter chxp= angeben. Dabei wird zuerst die Achse angegeben und dann die Position der Werte. Die Position wird im Bereich von 0 bis 100 angegeben. Im Folgenden wird die Y-Achse aus dem Diagramm gemäß dem vorherigen Beispiel mit den Werten 0, 150, 750 und 1500 beschriftet:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050&chds=0,1500&chxt=x,y&chxl=0:|1Q|2Q|3Q|4Q|1:|0|150|750|1500&chxp=1,0,15,50,100
Zusätzlich zur Achsenbeschriftung können die Datenpunkte im Diagramm beschriftet werden. Dazu wird der Parameter chm= benötigt. Die zu übergebenden Werte muten etwas kryptisch an und können variieren; mehr Details findet man in der Chart Feature List [10]. An dritter Stelle wird aber immer die Nummer der zugehörigen Datenreihe angegeben; die Zählung beginnt auch hier mit 0:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:1210,980,670,1050|1100,1025,890,960&chds=0,1300&chco=ff0000,0000ff&chm=N*f0*,000000,0,-1,11|N*f0*,000000,1,-1,11

X-Achse verschieben

Es besteht die Möglichkeit, die X-Achse zu verschieben. Dies ist hilfreich, wenn z. B. Unterschiede zwischen zwei Datenreihen visualisiert werden sollen. Im hier verwendeten Beispiel kann so die Differenz der Besucherzahl pro Quartal im Vergleich zum Vorjahr gezeigt werden. Die X-Achse wird über das Parameter chp= verschoben. Der Wert muss eine Zahl zwischen 0 und 1 sein. 0 entspricht dabei der üblichen X-Achse am unteren Rand, bei 1 läge die Achse am oberen Ende des Diagramms. Im folgenden wird die X-Achse genau in die Mitte des Diagramms gelegt:
http://chart.apis.google.com/chart?cht=bvg&chs=300x200&chd=t:120,-45,-230,90&chds=-250,250&chp=0.5
Wichtig ist, dass durch die Verschiebung der X-Achse nicht automatisch der dargestellte Werte-Bereich verschoben wird! Daher sollte zusätzlich immer der Parameter chds= angegeben werden, damit die Werte korrekt angezeigt werden.

Weitere Formatierungen

Die Google Charts API kennt noch eine Reihe von weiteren, hier nicht gezeigten Möglichkeiten. Dazu zählen u. a. eine farbliche Formatierung der Achsen, das Einfärben von Diagrammbereichen, das Ändern des Linienstils, das Einblenden von Gitternetzlinien, spezielle Marker, doppelte X- und Y-Achsen, Beschriftung etc. Die entsprechenden Informationen findet man in der Chart Feature List [11].

Google-o-Meter-Diagramme

Ein einfaches, aber nützliches Diagramm ist das sogenannte Google-o-Meter, kurz GoM. Hierbei handelt es sich um eine Art Tachonadel, die standardmäßig Werte im Bereich von 0 bis 100 auf einer farbigen Skala darstellt. Die gängigen Office-Programme bieten hier kein Äquivalent. Das GoM kann z. B. dazu genutzt werden, um eine Auslastung oder einen Erfüllungsgrad darzustellen:
http://chart.apis.google.com/chart?cht=gom&chs=300x200&chd=t:75
Auch hier funktionieren die oben genannten Parameter wie Diagrammtitel und Beschriftung des Datenpunktes. Über chco= kann die Farbeinteilung der Skala geändert werden.

Karten-Diagramme

Eine weitere interessante Diagrammart, welche in dieser Form in den üblichen Office-Programmen auch nicht vorhanden ist, sind Karten-Diagramme. Dabei können Länder auf einer (Welt-)Karte gemäß dem ihnen zugeordneten Datenwert eingefärbt werden. Eine Übersicht über die vorhanden Karten gibt die Map-Charts-Übersichtsseite [12]. Die Karte wird über den Parameter cht=t&chtm=, gefolgt vom Namen der Karte, festgelegt.
Die Namen der Länder werden als zweistelliger ISO-3316-Code übergeben (eine vollständige Liste der Codes findet man bei der ISO [13]), der entsprechende Parameter heißt chld=. Weiterhin müssen bei Karten-Diagrammen mindestens drei Farben definiert werden: die erste Farbe ist die Vorgabe-Farbe für alle Länder, für die kein Datenwert vorliegt. Hier empfiehlt sich, immer weiß (=ffffff) als Farbe zu nutzen. Die nächsten beiden Farbwerte definieren die Start- und die Endfarbe, den Verlauf dazwischen kann die Charts API selber berechnen. Des Weiteren empfiehlt es sich, bei Karten immer den Parameter chf=bg,s,EAF7FE zu nutzen, wodurch der Hintergrund - bei Karten also die Meeresfläche - in einem Blauton eingefärbt wird. Die Daten können in den bekannten Codierungen vorliegen. Eine Einschränkung ist, dass Kartendiagramme maximal 440×220 Pixel groß sein können. Im folgenden als Beispiel eine Europa-Karte, bei der den Ländern Deutschland, Belgien, Schweden, Italien und Rumänien ein Wert zugewiesen wird:
http://chart.apis.google.com/chart?cht=t&chtm=europe&chs=440x220&chd=t:75,40,95,10,60&chld=DEBESEITRO&chco=ffffff,ff0000,00ff00&chf=bg,s,EAF7FE

Nachteile und Schwierigkeiten

Auch wenn sich Diagramme mit Hilfe der Google Charts API schnell und einfach erzeugen lassen und dazu hinreichend Optionen zur Formatierung der Diagramme vorhanden sind, so gibt es doch einige negative Punkte.
Hat man einen Fehler in der URL, z. B. wenn man versehentlich ein Pipe-Zeichen statt eines Kommas verwendet, so erhält man entweder ein leeres Diagramm oder eine wenig aussagekräftige Fehlermeldung „Bad data request“. Den Fehler muss man händisch suchen, was sehr schwierig sein kann. Nur wenn einer der immer benötigten Parameter wie z. B. die Diagrammgröße fehlt, erhält man eine konkretere Fehlermeldung.
Des Weiteren können die URLs der Diagramme sehr lang sein, wenn man viele der Optionen nutzt, z. B. fasst
http://chart.apis.google.com/chart?cht=bvg&chs=400x200&chd=t:1210,980,670,1050|1100,1025,890,960&chds=0,1300&chco=ff0000,0000ff&chtt=Besucher+pro+Quartal&chxt=x,y&chxl=0:|1Q|2Q|3Q|4Q|1:|0|500|1000|1500&&chdl=2009|2008&chm=N*f0*,000000,0,-1,11|N*f0*,000000,1,-1,11
alle obigen Beispiel zur Besucherstatistik 2008 und 2009 in einem Diagramm zusammen. Die Länge der URL macht das Suchen von Fehlern schwierig. Abhilfe können hier Bibliotheken schaffen, die für verschiedene Programmiersprachen wie Python [14] [15] oder Perl [16] existieren.
Die Dokumentation der Google Charts API ist zwar vollständig; allerdings ist sie, wenn auch strukturiert, auf mehrere Seiten verteilt. Außerdem werden immer nur kurze Schnipsel der Parameter gezeigt, selten vollständige Parametersätze und fast nie komplette URL-Beispiele. Dies macht den Einsteig etwas schwierig, auch wenn die API an sich sehr einfach ist.

Zusammenfassung

Die Google Charts API stellt eine schnelle und - nach etwas Einarbeitung - einfache Art dar, Diagramme zu erstellen. Die Diagramme können direkt in eine HTML-Seite eingebettet werden. Die API ist komplett über die URL aufrufbar und somit von jedem Browser aus und plattformunabhängig nutzbar. Die Auswahl der Diagrammarten und die Formatierungsmöglichkeiten sind sehr gut, mit dem Google-o-Meter, QR-Barcodes und den Karten-Diagrammen stehen drei Diagrammtypen zur Auswahl, die mit konventionellen Office-Programmen nur schwer zu realisieren sind.
Links
  1. http://code.google.com/intl/de-DE/apis/charttools/
  2. http://de.wikipedia.org/wiki/Venn-Diagramm
  3. http://de.wikipedia.org/wiki/BAR-Code#QR-Code
  4. http://code.google.com/intl/de-DE/apis/chart/docs/gallery/chart_gall.html
  5. http://code.google.com/intl/de-DE/apis/chart/docs/making_charts.html
  6. http://code.google.com/intl/de-DE/terms.html
  7. http://www.google.com/intl/de-DE/privacy.html
  8. http://code.google.com/intl/de-DE/apis/chart/docs/data_formats.html
  9. http://code.google.com/intl/de-DE/apis/chart/docs/data_formats.html#encoding_data
  10. http://code.google.com/intl/de-DE/apis/chart/docs/chart_params.html#gcharts_line_markers
  11. http://code.google.com/intl/de-DE/apis/chart/docs/chart_params.html
  12. http://code.google.com/intl/de-DE/apis/chart/docs/gallery/map_charts.html
  13. http://www.learnstuff.com/country-names-and-codes/
  14. http://code.google.com/p/google-chartwrapper/
  15. http://pygooglechart.slowchop.com/pygooglechart/
  16. http://search.cpan.org/~dmaki/Google-Chart-0.05014/lib/Google/Chart.pm
Autoreninformation
Jochen Schnelle nutzt Google Charts beruflich für diverse Projekte und Intranet-Seiten. Privat ist er Ubuntu-Nutzer und seit mehreren Jahren im Wiki-Team von ubuntuusers.de aktiv.
Diesen Artikel kommentieren

Zum Index

Vim und das Surround-Plug-in

von Volker Duetsch
Der Editor Vim [1] bzw. sein grafisches Pendant GVim bieten von Haus aus ein enormes Leistungsspektrum. Dieses kann mit sogenannten Plug-ins erweitert werden. In diesem Artikel soll das Surround-Plug-in vorgestellt werden.
Wer noch nie etwas mit dem Vim-Editor zu tun hatte, findet im Artikel „Vim - Ein Schnelleinstieg“, freiesMagazin 08/2008 [2], eine Einstiegshilfe in die Materie, die auch das Verstehen und Nachvollziehen der Beispiele vereinfacht.
Die Plug-ins/Erweiterungen in Vim werden in der Regel in Vimscript erstellt. Eine dieser Erweiterungen ist das Plug-in surround.vim. Dieses erleichtert vor allem den Umgang mit Markup-Dateien (z. B. HTML, XML, DocBook-XML), ist aber auch bei der Erstellung von LaTeX-Dokumenten und generell bei der Programmierung sehr hilfreich. Das Surround-Plug-in stellt Tastenkombinationen zur Verfügung, die das Erstellen, Verändern und Entfernen von Tags, Klammerpaaren, Anführungszeichen und deren Inhalte vereinfachen.
Hinweis: Dieser Artikel wird nicht explizit Vimscript behandeln. Wer sich dafür interessiert, findet auf der Website von IBM developerWorks einige sehr interessante Artikel [3] [4].

Modi und Modiwechsel

Vim ist ein modaler Editor, d. h. er bietet verschiedene Modi zum Erstellen, Bearbeiten und Verändern von Dateiinhalten. Dieses Konzept ist auf den ersten Blick ungewöhnlich, böse Zungen würden behaupten nicht mehr zeitgemäß. Aber nach einer gewissen Lern- und Einarbeitungsphase lernt man die Vorzüge dieses Bedienkonzeptes schätzen.
Nach dem Start des Vim-Editors befindet sich dieser im Normalmodus (Voraussetzung: man startet Vim ohne modiverändernde Kommandozeilenparameter). Der einfachste Weg, um in den Einfügemodus zu gelangen, ist die Taste „I“. Um den Einfügemodus wieder zu verlassen, wird „Esc“ betätigt. Den Kommandozeilenmodus erreicht man mit „:“ (also „Umschalt“ + „.“) und verlässt ihn wieder mit „Esc“. Eine recht hilfreiche Grafik zum Modi-Wechsel findet man im englischsprachigen Dokument „Vim Introduction and Tutorial“ [5].

Download und Installation

Das gerade mal 9,4 KB große Plug-in muss nach dem Download [6] noch installiert werden. Dazu entpackt man die ZIP-Datei in den versteckten Ordner .vim im Homeverzeichnis:
$ unzip surround.zip -d ~/.vim
Das ZIP-Archiv enthält zwei Dateien: surround.vim und surround.txt. Durch die Ausführung des unzip-Befehls wird surround.vim, das eigentliche Plug-in, in ~/.vim/plugin/ abgelegt. Die Datei surround.txt, welche den Hilfetext bereitstellt, landet in ~/.vim/doc/. Der Hilfetext ist damit aber noch nicht im Editor abrufbar. Dies geschieht mittels :helptags ~/.vim/doc. Dieses Kommando wird im Editor im Kommandozeilenmodus eingegeben. Das war auch schon die Installation.

Anwendung

Die Funktionsweise lässt sich am besten anhand von Beispielen beschreiben.
Folgende Konventionen gelten für die Beispiele:
„Vorher“ beschreibt die Ausgangssituation der zu bearbeitenden/verändernden Textpassage.
„Nachher“ stellt das Ergebnis nach der Ausführung des Kommandos dar.
„Cursorposition“ beschreibt, wo bzw. innerhalb welches Bereichs sich der Cursor befinden muss, damit das Kommando korrekt ausgeführt wird.
„Kommando“ stellt den Befehl für die Verarbeitung dar. Alle Kommandos werden, wenn nicht anders angegeben, im Normalmodus eingeben. Ein Nachteil dabei ist, dass die Kommandos überwiegend „blind“ eingegeben werden. Sollte man sich dabei einmal vertippen bzw. unsicher sein, was man gerade eingegeben hat, kann man den Vorgang mittels „Esc“ abbrechen. Sieht das Ergebnis nach dem Ausführen des Kommandos nicht so aus, wie man es erwartet hat - kein Problem. Dafür gibt es die Undo-Funktion von Vim. Mittels „U“ im Normalmodus oder :earlier im Kommandozeilenmodus ist die Ausgangssituation wieder hergestellt.
Abschließend wird versucht, jedes Beispiel zu erklären. Dies soll die auf den ersten Blick teilweise recht kryptischen Kommandos entschlüsseln und das Erlernen erleichtern.
Beispiel 1
Vorher "Hello World"
Nachher <H1>Hello World</H1>
Cursorposition Cursor befindet sich innerhalb der Anführungszeichen
Kommando cs"tH1
Verändere (c=change) die Hello World umgebenden (s=surrounding) doppelten Anführungszeichen (") zu einem Tag (t) der Form H1.
Beispiel 2
Vorher <p>Ich bin ein Absatz.</p>
Nachher Ich bin ein Absatz.
Cursorposition Cursor steht innerhalb des öffnenden <p>- und schließenden </p>-Tag
Kommando dst
Entferne (d=delete) die umgebenen (s=surrounding) Tags (t), die „Ich bin ein Absatz.“ umgeben.
Beispiel 3
Vorher (2*2)+4
Nachher 2*2+4
Cursorposition Cursor steht innerhalb des Klammerpaares
Kommando ds(
Entferne (d=delete s=surrounding) das Klammernpaar ((), welches den Ausdruck „2*2“ umgibt. Alternativ kann auch das Kommando ds) verwendet werden.
Beispiel 4
Vorher Eine kurze Textzeile.
Nachher <p>Eine kurze Textzeile.</p>
Cursorposition Cursor befindet sich in der Zeile
Kommando ysstp
Umgib (y=yank s=surrounding) den gesamten Satz (s=sentence) „Eine kurze Textzeile.“ mit dem Tag (t) der Form p.
Beispiel 5
Vorher Hello World
Nachher Hello (World)
Cursorposition Cursor befindet sich auf dem Buchstaben W
Kommando ysw)
Umgib (y=yank s=surrounding) das Wort (w=word) „World“ mit einem Klammernpaar ()).
Beispiel 6
Vorher Hello World
Nachher Hello ( World )
Cursorposition Cursor befindet sich auf dem Buchstaben W
Kommando ysw(
Umgib (y=yank s=surrounding) das Wort (w=word) „World“ mit einem Klammerpaar ((). Man beachte den Unterschied zu dem vorhergehenden Beispiel durch die Eingabe von ( statt ), wird zusätzlich innerhalb des Klammerpaares ein Leerzeichen zu Beginn und Ende des Wortes „World“ eingefügt.
Beispiel 7
Vorher Hello World
Nachher "Hello" World
Cursorposition Cursor befindet sich auf Hello
Kommando ysiw"
Umgib (y=yank s=surrounding) das Wort (i=inner w=word) „Hello“ mit einem doppelten Anführungszeichen (").

Warum ysiw" und nicht ysw"?

Die Wirkungsweise der beiden Kommandos ist nur dann identisch, wenn sich der Cursor während der Ausführung des Kommandos direkt auf dem Buchstaben „H“ von „Hello World“ befindet. Befindet sich der Cursor z. B. auf dem Buchstaben „e“ von „Hello World“ passiert Folgendes: ysw" wird zu H"ello" World, während dies bei ysiw" zu "Hello" World führt.
w definiert die Wortgrenze von der aktuellen Cursorposition bis zum nächsten auftretenden Leerzeichen in Richtung rechts. Der Unterschied zwischen w und iw (inner word) besteht darin, wie Wortgrenzen definiert bzw. behandelt werden. iw definiert die Wortgrenze von der aktuellen Cursorposition bis zum nächsten auftretenden Leerzeichen in Richtung links und rechts.
iw oder auch aw sind sogenannte Textobjects. Diese Textobjects stehen nur zur Verfügung, wenn Vim mit der Option +textobjects kompiliert wurde. Um diese Einstellung zu überprüfen, wird im Ex-Mode :ve eingegeben. Erscheint in der Ausgabe +textobjects, steht diese Option zu Verfügung. Erscheint -textobjects, stehen diese Optionen nicht zur Verfügung und die Beispiele können nur eingeschränkt nachvollzogen werden.
Die Textobjects sind eine sehr mächtige Funktion des Vim-Editors. Mehr Informationen dazu findet man in der Hilfe mittels :help text-objects.
Wäre die Cursorposition in den Beispielen 5 und 6 also abweichend, sollte man auf Textobjects zurückgreifen und das Kommando entsprechend für Beispiel 5 ysiw) oder ysiw( für Beispiel 6 anpassen.
Beispiel 8
Vorher <li>Listeneintrag 1</li>
<li>Listeneintrag 2</li>
Nachher <ul>
<li>Listeneintrag 1</li>
<li>Listeneintrag 2</li>
</ul>
Cursorposition Cursor befindet sich auf < von <li>Listeneintrag 1
Kommando ys}tul
Umschließe (y=yank s=surrounding) den Absatz (}=paragraph) mit einen Tag (t) der Form ul.
Beispiel 9
Vorher $varIn = ["Hello World"]
Nachher $varIn = ['Hello World']
Cursorposition Cursor befindet sich auf Hello
Kommando cs"'
Verändere (c=change) die „Hello World“ umgebenden (s=surrounding) doppelten Anführungszeichen (") in einfache Anführungszeichen (').

Weitere Anwendung

Das Surround-Plug-in ist auf den Normalmodus ausgelegt. Einige Funktionen stehen aber auch im visuellen Modus und im Einfügemodus zur Verfügung.
Der visuelle Modus ist eine Vim-Verbesserung und ähnelt dem Normalmodus. Mit Hilfe der Maus oder Tastenkombinationen können Bereiche markiert werden, in denen dann auch nur das Kommando wirkt.
Im Einfügemodus ist gerade die Funktion „Strg“ + „S“ gefolgt von z. B. ', ", (, [ oder { interessant, da gleichzeitig zum öffnenden auch das schließende Symbol erzeugt wird. Ein unschöner Nebeneffekt, der bei der Konsolenversion von Vim auftreten kann, ist, dass die Eingabe von „Strg“ + „S“ dazu führt, dass bei einigen Terminals die Bildschirmausgabe unterbrochen wird. Das Terminal erweckt den Eindruck als wäre es eingefroren, aber „Strg“ + „Q“ aktiviert die Bildschirmausgabe wieder.

Weitere Informationen

Weitere Informationen zum Surround-Plug-in bietet die Dokumentation des Plug-ins, welche im Kommandozeilenmodus mit :help surround aufgerufen wird.
Eine Erweiterung, die die Wiederholung der Kommandos mittels . ermöglicht, stellt das Plug-in repeat.vim [7] dar, welches ebenfalls vom Autor des Surround-Plug-ins, Tim Pope, stammt.
Besonders für einen vertiefenden Einstieg ist „Speaking UNIX: The new and improved Vim editor“ [8] zu empfehlen.
Links
  1. http://www.vim.org/
  2. http://www.freiesmagazin.de/freiesMagazin-2008-08
  3. http://www.ibm.com/developerworks/linux/library/l-vim-script-1/index.html
  4. http://www.ibm.com/developerworks/linux/library/l-vim-script-2/index.html
  5. http://blog.interlinked.org/tutorials/vim_tutorial.html
  6. http://www.vim.org/scripts/script.php?script_id=1697
  7. http://www.vim.org/scripts/script.php?script_id=2136
  8. http://www.ibm.com/developerworks/aix/library/au-speakingunix_vim/index.html
Autoreninformation
Volker Duetsch ist überzeugter Nutzer des modalen Editierens auf verschiedenen Betriebssystemen und setzt dafür Vim ein.
Diesen Artikel kommentieren

Zum Index

Effektives automatisiertes Bearbeiten von Daten mit sed

von Christian Brabandt
Dieser Artikel gibt einen Überblick über GNU sed [1] und seine Anwendungsmöglichkeiten. Andere sed-Versionen sollten genauso funktionieren, können sich aber in Details leider durchaus unterscheiden. Eine schöne Übersicht über Inkompatibiltäten finden sich in den sed-FAQ auf SourceForge [2].

Was ist sed?

sed ist eine Abkürzung und steht für „Stream Editor“, was bedeutet, dass es sich dabei um einen nicht-interaktiven Editor handelt, der somit für die Stapelverarbeitung sehr gut geeignet ist.
Während man bei einem interaktiven Editor typischerweise den Cursor bewegt und an bestimmten Stellen auf dem Monitor Veränderungen vornimmt, arbeitet man bei sed in Ermangelung eines Cursors mit Aktionen, die typischerweise durch Muster oder Zeilennummern spezifiziert werden. Das klingt im ersten Moment etwas seltsam, aber man kann damit sehr flexibel mit einem Einzeiler Aktionen durchführen.
Das heißt, sed liest die zu bearbeitende Datei normalerweise zeilenweise in einen Puffer (den „Pattern Space“), prüft, ob die angegebenen Bedingungen zutreffen und, falls ja, führt es die Änderungen durch und gibt diesen Puffer wieder aus.
So kann man zum Beispiel einfach in einer Eingabe alle Vorkommen von dem falschen, englischen Artikel „teh“ durch die korrekte Version „the“ ersetzen. Oder man kann alle Kommentarzeichen aus einer Konfigurationsdatei entfernen. Es gab sogar schon Leute, die mit sed Spiele programmiert, einen Debugger implementiert oder einen Webserver umgesetzt haben.
Dies alles, obwohl die Sprache keine Variablen kennt und nur eingeschränkte Kontrollstrukturen. Seine Sprachelemente erscheinen auf den ersten Blick etwas kryptisch und sehen oft auch aus wie feinster Buchstabensalat.
sed hat, wie so viele praktische Werkzeuge, seinen Ursprung in der Unix-Welt und wurde 1973 oder 1974 (Unix Version 4) als Erweiterung bzw. Nachfolger von grep und ed entwickelt. Die verwendete Syntax und Lexik beeinflusste auch maßgeblich Programme wie vi, perl, awk und vermutlich auch die ein oder andere Shell.
Da sed so weit verbreitet ist, gehört es auch zur POSIX Single Unix Specification beziehungsweise zum Standard IEEE 1003.1 (beide Standards bezeichnen dasselbe, nachzulesen auf der Seite von „The Open Group“ [3]). Beide Standards definieren u. a. Schnittstellen und Werkzeuge, die auf einem System vorhanden sein müssen, um den Markennamen UNIX tragen zu dürfen.
Damit ist der grundsätzliche Befehlssatz und die Grammatik von sed, die man erwarten kann, auch schon standardisiert. Falls wider Erwarten kein sed enthalten sein sollte, kann man es leicht über die Paketverwaltung über das gleichnamige Paket nachinstallieren.

sed und reguläre Ausdrücke

sed arbeitet wie oben erwähnt mit Mustern, die bestimmte Teile definieren, an denen Änderungen vorgenommen werden sollen. Diese Muster werden typischerweise durch reguläre Ausdrücke definiert.
GNU sed unterstützt dabei einfache reguläre Ausdrücke (Basic Regular Expressions) bzw. mit dem Schalter -r erweiterte reguläre Ausdrücke (Extended Regular Expressions), z. B. reguläre Ausdrücke, die von egrep benutzt werden.
Etwas vereinfacht ausgedrückt, ist der Unterschied zwischen einfachen regulären Ausdrücken und erweiterten regulären Ausdrücken der, dass bei den ersten der \ genutzt wird, um die Sonderbedeutung der Zeichen einzuschalten, während bei letzteren der \ die Sonderbedeutung der Zeichen ausschaltet.

Reguläre Ausdrücke kurz erklärt

Bei regulären Ausdrücken steht normalerweise jedes Zeichen für sich selbst. Besondere Bedeutung haben jedoch folgende Zeichen, die man sich einmal genauer anschauen sollte:

Anker

^
steht für den Zeilenanfang.
$
steht für das Zeilenende.
.
steht für irgendein Zeichen.

Zeichenklassen

[... ]
steht für irgendein Zeichen innerhalb der eckigen Klammer.
[a-z]
passt auf alle Kleinbuchstaben des Alphabets, [abc] entweder auf a oder auf b oder auf c.
[^... ]
passt auf irgendein Zeichen, welches nicht innerhalb der eckigen Klammer angegeben ist.
^[a-z]
passt auf alle Zeichen, die keine Kleinbuchstaben sind. (Der Bereich, der durch diese Angabe definiert ist, wird maßgeblich durch die Lokalisierung auf dem jeweiligen System bestimmt. Hierfür sind vor allem die beiden Umgebungsvariablen LC_ALL und LC_CTYPE verantwortlich.)

Quantifier

*
steht für kein bis beliebig häufiges Auftreten, dabei wird ein längerer passender Ausdruck bevorzugt (sogenannte Greediness, „Gier“). a* passt also auf „ “, „a“, „aa“, „aaa“ und so weiter, bei einer Zeichenkette „baah“ wird es aber immer auf „aa“ passen.
\?
steht für kein- oder einmaliges Auftreten (als erweiterter regulärer Ausdruck: ?).
\+
steht für genau ein- oder mehrmaliges Auftreten (bei erweiterten regulären Ausdrücken +). Längere Treffer werden dabei bevorzugt. Ursprünglich kennen die elementaren regulären Ausdrücke diesen Quantifier nicht. Mittlerweile wird aber \+ auch meist unterstützt. Falls es die Unterstützung für \+ nicht vorhanden sein sollte, so kann man diesen Quantifier auch mit * nachbilden. a\+ ist nämlich gleichbedeutend mit aa* (findet eine beliebige Anzahl a, aber mindestens 1).

Verschachtelung

\( \)
steht für Klammerung (bei erweiterten regulären Ausdrücken ohne Backslash, also ( )). Damit kann man sich Ausdrücke merken und sie später mit den Variablen \0 bis \9 referenzieren. Das heißt, man kann maximal zehn verschiedene Zeichenketten referenzieren, mehr geht nicht. Dabei zählt immer die Reihenfolge der öffnenden Klammer. \0 bezieht sich dabei auf den kompletten Match und bedeutet das gleiche wie &. \(a\)b\1 passt auf „aba“ aber nicht auf „abba“.

Sonstiges

\|
passt entweder auf den vorherigen Ausdruck oder den nachfolgenden Ausdruck (bei erweiterten regulären Ausdrücken | - ). a\|b passt auf a oder auf b.
\n
steht für den Zeilenumbruch. Hier sollte man auch beachten, dass sed seine Eingabe zeilenorientiert liest. Das heißt, normalerweise wird ein Muster mit einem \n für einen Zeilenumbruch nicht passen. Man kann zwar damit arbeiten, aber man sollte das im Hinterkopf behalten, wenn man \n benutzt.)
\$
passt auf ein $-Zeichen (denn $ steht ja für das Ende der Zeile. So kann man mit dem Backslash nachstehende Zeichen maskieren. \* passt auf einen *, \& passt auf das Kaufmanns-Und usw.
Das ist soweit das Wichtigste zu den regulären Ausdrücken, die von sed unterstützt werden. Die Syntax ist nicht so schwer, man sollte sich nur merken, welche der vielen Dialekte der regulären Ausdrücke sed beherrscht.
Darüber hinaus unterstützt GNU sed die POSIX Zeichenklassen, d. h. das Muster [[:lower:]] passt auf alle Kleinbuchstaben und [[:upper:]] auf alle Großbuchstaben. Außerdem beherrscht GNU sed noch Muster, die mit einem Backslash anfangen. \w passt zum Beispiel auf ein „Word-Character“, als Zeichenklasse ausgedrückt: [A-Za-z0-9_], \W passt auf ein „Non-Word-Character“ und ist somit die Umkehrung von \w (also [^a-zA-Z0-9_]). Die beiden Muster \< und \> bedeuten den Start beziehungsweise das Ende des Wortes. Weitere \-Muster werden auch unterstützt, dafür sei aber letzten Endes auf die Manpages bzw. Infopages verwiesen.

Sed und fortgeschrittene Eigenschaften regulärer Ausdrücke

So fortgeschrittene Sachen wie „Look-Around Assertions“, „Non-Greedy Matches“, „Non-Capturing Groups“ oder auch rekursive Ausdrücke der perlkompatiblen regulären Ausdrücke beherrscht sed leider nicht. Eine gute Übersicht über die vorhandenen Möglichkeiten gibt schließlich die Wikipedia [4].

Adressierung von Zeilen

Diese Ausdrücke definieren nun, wo etwas gemacht wird. Anstelle von Mustern kann man aber auch die Zeilennummern angeben. $ als Zeilennummer passt dabei immer auf die letzte Zeile.
Die Adressierung erfolgt entweder durch Angabe genau der Zeile, für die etwas gemacht werden soll oder alternativ durch Angabe eines Bereiches. Einen Bereich trennt man dann durch ein Komma ab. Die Angabe 1,$ ist gleichbedeutend mit der Angabe von der ersten Zeile bis zur letzten und kann alternativ durch % angegeben werden.
Zusätzlich erlaubt es GNU sed noch, Schrittfolgen zu definieren. Also zum Beispiel von Zeile 1 ausgehend, jede zweite (also 1, 3, 5, 7, ...). 1~2 passt genau auf dieses Muster, während 0~2 jede gerade Zeile ausgibt. Verallgemeinert gesagt bezeichnet x~y also ein Muster, in dem x die Startzeile angibt und y die Schrittfolge.

Kommandos

Welche Aktionen durchgeführt werden, bestimmen die Kommandos. Diese Kommandos verstehen entweder keine Adressen (z. B. Sprungangaben und Kommentare), eine oder keine Adressen oder zwei Adressen (nämlich Start- und End-Adresse).
Die folgenden Kommandos kennt dabei GNU sed:
#
Die Raute kennzeichnet einen Kommentar.
s/x/y/
ersetze x durch y.
:
Der Doppelpunkt definiert bei sed eine Sprungmarke.
=
Das Gleichheitszeichen gibt die Zeilennummer aus.
a\Text
hängt „Text“ als neue Zeile an.
i\Text
fügt „Text“ vor der aktuellen Zeile ein.
c\Text
ersetzt die aktuelle Zeile durch „Text“.
q
beendet sed.
r foobar
hängt den Inhalt der Datei foobar hinter die aktuelle Zeile an.
R foobar
fügt eine Zeile der Datei foobar hinter die aktuelle Zeile an.
b foobar
weist sed an, zur Sprungmarke foobar zu springen.
p
Gib die Treffer aus.
t foobar
Springe zur Sprungmarke foobar, wenn das letzte s-Kommando erfolgreich war.
T foobar
Springe zur Sprungmarke foobar, wenn das letzte Kommando nicht erfolgreich war.
d
Lösche die aktuelle eingelesene Zeile und fange von vorne an.
n
Lies die nächste Zeile ein.
N
Lies die nächste Zeile ein und hänge sie an die aktuelle Zeile an.
w foobar
Schreibe den aktuellen Inhalt in die Datei foobar.
W foobar
Schreibe ausschließlich die erste Zeile des aktuellen Puffers in die Datei foobar.
y/a/b/
Ersetze a durch b; funktioniert so ähnlich wie tr. Mit y/abcdefghijklmnopqrstuvwxyz/ABCDEFGHIJKLMNOPQRSTUVWXYZ/ werden alle Kleinbuchstaben durch Großbuchstaben ersetzt.
!
weist sed an, das jeweils nachfolgende Kommando für alle Zeilen außer der aktuellen Zeile auszuführen.
Normalerweise liest sed die Eingabe (bis zum Zeilenende \n) in den Arbeitspuffer (den sogenannten „Pattern Space“), führt die Kommandos dort aus und gibt anschließend die Änderungen aus. Daneben gibt es noch einen extra Puffer, den sogenannten „Hold Space“. In ihm kann man Daten zwischenspeichern und später wieder verwenden. Dafür gibt es die folgenden Kommandos:
D
Lösche bis zum ersten Zeilenumbruch im Pattern Space und fange dann wieder von vorne an.
x
Tausche die Inhalte des Pattern Spaces und Hold Spaces aus.
h
Kopiere den Pattern Space an den Hold Space Puffer.
H
Hänge den Pattern Space an den Hold Space Puffer an.
g
Kopiere den Hold Space Puffer in den Pattern Space.
G
Hänge den Hold Space Puffer an den Pattern Space an.

Adressen und Kommandos definieren die Aktionen

Durch Klammerung mit { kann man definieren, welche Kommandos logisch zusammengehören und entsprechend zusammen ausgeführt werden. Der Aufbau eines Kommandos und der Adressangabe ist dabei folgender: Adresse1,Adresse2 {Kommando1; Kommando2; Kommando3; ...; KommandoN}. Muster werden durch Slashes / getrennt angegeben: /Muster1/,/Muster2/ {Kommando1; Kommando2}.
Durch die Angabe zweier Adressen definiert man einen Bereich, in dem die nachfolgenden Kommandos ausgeführt werden (inklusive der Start- und Endzeilen). Wenn man nur eine Adresse angibt, dann wird das Kommando nur an dieser einen Stelle ausgeführt. Wenn man nur ein Kommando ausführen will, kann man die Klammerung auch weglassen. Werden alle Adressen weggelassen, bezieht sich das Kommando immer auf deie komplette Eingabe (also von Zeile 1 bis zur letzten Zeile).

sed anhand von Beispielen erklärt

Nachdem nun die Grundlagen bekannt sind, wird sed abschließend noch anhand von Beispielen erklärt. Einige dieser Beispiele sind den „Sed 1 Liners“ [5] entnommen.
$ sed -n '3p'
Hier gibt sed die Zeile 3 und auschließlich die Zeile 3 aus.
$ sed -n '3,5p'
Und hier wird alles von Zeile 3 bis 5 ausgegeben (inklusive dieser Zeilen). Normalerweise wird bei sed der Input immer auch ausgegeben; mit -n unterdrückt man das, und nur wenn man es explizit verlangt (Kommando p) wird etwas ausgegeben.
Das einfachste Kommando ist das #-Kommando. Allein für sich macht das gar nichts und gibt einfach alles aus:
$ sed '#' foobar
Der Fuchs ist rot und rot sind auch Aepfel.
Alternativ kann man auch das leere Kommando angeben:
$ sed “ foobar
Der Fuchs ist rot und rot sind auch Aepfel.
Das Gleiche erreicht man auch mit dem „Kommando“ ;, welches eigentlich verschiedene Kommandos trennt. In diesem Fall führt es ein „Null“-Kommando aus und gibt daher alles aus, was es einliest:
$ sed ';' foobar
Der Fuchs ist rot und rot sind auch Aepfel.
Das verbreitetste Kommando ist sicherlich das s-Kommando. Damit kann man nach einem Muster suchen und dieses durch ein anderes ersetzen. Zum Beispiel ersetzt
$ sed 's/rot/gruen/' foobar
die Zeichenfolge „rot“ durch „gruen“ und gibt die Änderung aus:
$ sed 's/rot/gruen/' foobar
Der Fuchs ist gruen und rot sind auch Aepfel.
Naja, aber eigentlich ist der Fuchs ja rot und Äpfel sind grün. Daher kann man dem s-Kommando noch zusätzliche Flags mitgeben. Das bekannteste Flag ist das g-Flag. Damit werden alle gefundenen Muster ersetzt:
$ sed 's/rot/gruen/g' foobar
Der Fuchs ist gruen und gruen sind auch Aepfel.
Man kann aber auch nur bestimmte Muster ersetzen, zum Beispiel nur das 2. Muster:
$ sed 's/rot/gruen/2' foobar
Der Fuchs ist rot und gruen sind auch Aepfel.
Wenn kein Flag angegeben wird, wird implizit die 1 angenommen (also das erste gefundene Muster wird ersetzt).
Ein weiteres Flag ist das i-Flag. Hierbei wird das Muster „case-insensitive“ gesucht, d. h. Klein-/Großbuchstaben spielen keine Rolle. Es ist auch möglich, mehrere Flags miteinander zu kombinieren:
$ sed 's/ROT/blau/ig' foobar
Der Fuchs ist blau und blau sind auch Aepfel.
Manchmal möchte man aber auch Pfadangaben ersetzen. Blöd nur, dass der Slash / normalerweise das Muster vom Ersetzungstext trennt. Möchte man nun z. B. /usr/local/share/foobar durch /usr/share/foobar ersetzen, müßte man sowas schreiben:
$ sed 's/\/usr\/local\/share\/foobar/\/usr\/share\/foobar/g' script
Daher erlaubt sed es, irgendein anderes Trennzeichen zu nutzen, z. B. die Pipe |:
$ sed 's|/usr/local/share/foobar|/usr/share/foobar|g' script
Oder man entscheidet sich für den Unterstrich _:
$ sed 's_/usr/local/share/foobar_/usr/share/foobar_g' script
Oder auch irgendein anderes Zeichen, was nicht im Muster vorkommt.
Manchmal möchte man auch das gefundene Muster im Ersetzungsteil wieder verwenden. Wenn man z. B. eine Anweisung in einer Konfigurationsdatei auskommentieren möchte, die mit „foobar“ anfängt, kann man das so machen:
$ sed 's/^\(foobar\)/#\1/' config
#foobar wichtig!
Oder man benutzt einfach den Replacement Character &, der für das Muster steht, das gefunden wurde:
$ sed 's/^\(foobar\)/#&/' config
#foobar wichtig!
Vereinfachen kann man das noch so:
$ sed '/^foobar/s/^/#/' config
#foobar wichtig!
Hier benutzt man den regulären Ausdruck /^foobar/ als Adresse, und nur Zeilen, die ausschließlich auf dieses Muster passen, werden ersetzt. Vereinfacht gesagt, ersetzt man das Zeichen ^ (das ja für den Zeilenanfang steht) durch ein # und fügt somit noch eine Raute an den Anfang der Zeile ein.
Aber natürlich kann man noch mehr mit regulären Ausdrücken machen. Zum Beispiel Kleinbuchstaben durch Großbuchstaben ersetzen:
$ ls /home/ | sed 's/[[:lower:]]/\U&/g'
CB
CHRISBRA
FTP
sed sucht nach der Posix-Klasse von Kleinbuchstaben und ersetzt diese durch die entsprechenden Großbuchstaben. Das \U steht für „Uppercase“ und wandelt alle Zeichen in die passenden Großbuchstaben um. Man beachte die Nutzung von &, um das gefundene Muster wieder zu verwenden. Ohne das Flag g wäre übrigens nur der erste Buchstabe groß geschrieben worden. Das gleiche kann man übrigens mit dem Kommando y/ erreichen:
$ ls /home/ | sed 'y/abcdefghijklmnopqrstuvwxyz/ABCDEFGHIJKLMNOPQRSTUVWXYZ/'

CB
CHRISBRA
FTP
Das ist etwas umständlich, denn das y-Kommando scheint keine Zeichenklassen zu unterstützen, sondern man muss explizit alle Zeichen hinschreiben.

cat -n simulieren

Ein einfaches cat -n macht nichts weiter als die Datei inklusive Zeilennummern auszugeben:
$ cat -n datei
     1  eins
     2  zwei
     3  drei
Mit sed kann man das nun wie folgt simulieren:
$ sed -e '=' datei | sed -e '/^[0-9]\+$/{N;s/\n/ /}'
1 eins
2 zwei
3 drei
Hier werden zwei sed-Prozesse benötigt, weil der erste nichts weiter macht, als in die Ausgabe die Zeilennummer mit Zeilenendezeichen \n getrennt zu schreiben. Nachfolgende sed-Befehle können diese Zeilen nicht mehr ändern. Daher wird ein zweiter sed-Prozess gestartet, der alle Zeilen auswählt, die nur mit Zahlen anfangen (der reguläre Ausdruck dazu ist ^[0-9]\+$), für diese Zeile die nächste Zeile einliest (N) und danach per Substitute-Befehl das Zeilenendezeichen \n durch ein Leerzeichen ersetzt. Es ist wichtig, dass zunächst die nachfolgende Zeile eingelesen wird, ansonsten sieht sed nicht das Zeilenendezeichen \n.
Die Lösung ist schon nahezu perfekt. Wünschenswert wäre es vielleicht noch, dass man die Eingabe eingerückt ausgibt. Außerdem trennt cat -n die Ausgaber per Tabulatorzeichen \t, wie ein Hexdump bestätigt.
Eine vollständige Lösung samt der gewünschten Ausgabe könnte schließlich mit dem folgenden Einzeiler erreicht werden:
$ sed -e '=' datei | sed -e '/^[0-9]\+$/{N;s/\n/\t/;s/^/     /}'
     1  eins
     2  zwei
     3  drei

wc -l simulieren

Wie man vielleicht weiß, kann man mit dem Programm wc - neben einigen anderen Möglichkeiten - über den Schalter -l auch die jeweilige Anzahl der Zeilen für die aufgerufene Datei ausgeben:
$ wc -l datei
3 lines
Auch sed kann die Anzahl der Zeilen angeben:
$ sed -n '$=' datei
3
Hier wurde der Schalter -n benutzt. Normalerweise kopiert sed jede Zeile der Eingabe in die Ausgabe. Dies wird durch den Schalter -n verhindert und sed schreibt nur eine Ausgabe, wenn es explizit verlangt wird (zum Beispiel mit dem Print-Kommando). Die regulären Ausdrücke $= sind wieder eine Adressangabe ($ steht für die letzte Zeile) und die Anweisung, die Zeilennummer zu schreiben. Das heißt, wenn sed die letzte Zeile einliest, wird es die aktuelle Zeilennummer ausgeben, die zufällig mit der Anzahl der Zeilen in der Eingabe übereinstimmt.

tac emulieren

sed kennt, wie schon gesagt, neben dem Verarbeitungspuffer (Pattern Space) noch den Hold Space, in dem Daten temporär abgelegt werden können. Von diesem temporären Puffer wird hier Gebrauch gemacht:
$ sed '1!G;h;$!d' datei
drei
zwei
eins
Das h als Anweisung bedeutet jetzt, dass die aktuell bearbeitete Zeile in diesen Puffer kopiert wird.
Die erste Anweisung 1!G weist sed an, den Inhalt dieses Zwischenspeichers an die aktuell zu bearbeitende Zeile mit Zeilenendezeichen \n getrennt anzuhängen (außer in der ersten Zeile, denn zu diesem Zeitpunkt ist der Zwischenspeicher noch leer). Diese Eingabe wird dann wiederum in den temporären Puffer geschrieben.
Die letzte Anweisung $!d bedeutet „lösche jede Zeile außer der letzten“ (! entspricht einem Nicht-Operator).
Wenn sed die letzte Zeile liest, fügt es den Inhalt aller vorherigen Zeilen an und gibt diese wieder aus. Durch die Art, wie die Zeilen angehängt werden, entspricht diese Reihenfolge genau der umgekehrten Reihenfolge der Eingabe.
Eine alternative Anweisung, in der sed explizit nur die letzte Zeile ausgibt und ansonsten keine Ausgabe erzeugt, könnte auf folgende Art realisiert werden:
$ sed -n '1!G;h;\$p' datei
drei
zwei
eins
Dieser sed-Einzeiler enthält die folgenden drei Anweisungen: 1!G, h, $!p. Dabei bedeutet 1!G nun, dass der Inhalt jeder Zeile, außer der ersten Zeile, in den temporären Puffer (Hold Space) geschrieben wird.

Zeilen mit Backslash-Ende in eine Zeile schreiben

Möchte man zwei durch einen Backslash getrennte Zeilen zu einer zusammenfügen, hilft der folgende Ausdruck:
$ sed -e ':a' -e '/\\$/{N;s/\\\n//;ta}'
In der ersten Anweisung wird die Sprungmarke :a definiert. Das erlaubt es, später wieder dorthin zu springen. In der nächsten Anweisung sucht sed nach Zeilen, die mit einem Backslash aufhören, wobei mit \\$ der Backslash einmal maskiert werden muss, sonst würde sed nach dem $-Literal suchen. Für diese Zeilen liest sed die nächste Zeile ein (Kommando N) und löscht anschließend die Zeichenfolge „\“, gefolgt von einem Zeilenende.
Dadurch sind nun die ehemals zwei getrennten Zeilen wieder zu einer Zeile zusammengefügt. Nachdem dies geschehen ist, springt sed zur Sprungmarke :a und fängt wieder von vorne an (falls die neue Zeile ebenfalls mit einem \ endet). Wenn nichts gefunden wird, wird die Zeile ausgegeben.

grep emulieren

sed sucht nach Zeilen, die das Suchmuster enthalten. Alle Zeilen, die nicht auf das Muster passen, werden gelöscht und nicht ausgegeben.
$ sed '/eins/!d' datei
eins
Eine alternative Lösung besteht im folgenden Einzeiler:
$ sed -n '/eins/p' datei
eins
Hier wird sed nur dann etwas ausgeben, wenn es dazu angewiesen wird. Und in diesem Fall wird sed dazu angewiesen, wenn genau das Muster /eins/ auf die die verarbeitete Zeile passen sollte.

tail -10 emulieren

Im folgenden Fall wird sed immer maximal zehn Zeilen in seinem Puffer halten.
$ sed -e ':a' -e '$q;N;11,$D;ba' /var/log/syslog
Sobald sed die letzte Zeile erreicht, wird der komplette Puffer ausgegeben. Jede eingelesene Zeile veranlasst sed dazu, die nächste Zeile einzulesen (N) und nachdem es zehn Zeilen eingelesen hat, wird sed immer die erste eingelesene Zeile löschen (D) und mit der nächsten Zeile fortsetzen. Zum Schluss wird sed angewiesen, zur Sprungmarke :a zu springen und von vorne anzufangen. Dadurch wird sichergestellt, dass niemals mehr als zehn Zeilen im Puffer sind.

Leere Zeilen löschen

Leere Zeilen sind oft unnötiger Ballast und sollen entfernt werden. In so einem Fall kann man den nächsten Einzeiler anwenden.
$ sed '/./!d' datei
Der Punkt . passt nur auf Zeilen, die mindestens ein Zeichen enthalten. Leere Zeilen erfüllen diese Bedingung nicht und würden daher aus der Eingabe gelöscht. Alternativ kann man mit
$ sed '/^$/d' datei
das Gleiche erreichen. Hier wird sed angewiesen, explizit alle Zeilen, die nur aus Zeilenanfang und Zeilenende bestehen (also keinen Inhalt haben), zu löschen.

Alle Zeilenendezeichen entfernen

Dies ist eine interessante Aufgabenstellung. Normalerweise kann man mit sed nicht das Zeilenende suchen, weil sed seine Eingabe zeilenweise verarbeitet.
$ sed -e ':x' -e 'N;$!bx;s/\n//g' datei
einszweidrei
Man muss sed also anweisen, erst die komplette Datei in seinen Puffer zu kopieren, bevor man anfängt, das Zeilenendezeichen \n zu ersetzen. Daher wird zunächst die Sprungmarke :x definiert. Anschließend wird sed angewiesen, so lange die nächste Zeile einzulesen, bis es die letzte Zeile gelesen hat. Nachdem sed die nächste Zeile eingelesen hat, wird so lange zur Sprungmarke :x gesprungen, bis die letzte Zeile im Zwischenspeicher enthalten ist. Wenn dies der Fall ist, kann auch das Zeilenendezeichen \n gesucht und gelöscht werden.
Da in diesem Fall immer die komplette Datei in den Puffer gelesen wird, kann es bei großen Dateien zu Geschwindigkeitseinbußen kommen. Es ist daher eigentlich auch nicht empfehlenswert, diese Aufgabe durch sed erledigen zu lassen. Geeigneter wäre zum Beispiel tr:
$ tr -d '\n' <datei
einszweidrei

Fazit

Abschließend kann festgestellt werden, dass sed ein durchaus flexibles Werkzeug ist, wenn man per Stapelverarbeitung Dateien bearbeiten muss. Durch seine Eigenschaft, Dateien immer zeilenweise zu verarbeiten und durch die Verwendung von Basic/Extended Regular Expressions ist es jedoch nur mit Einschränkungen zu empfehlen, wenn man komplexere Bearbeitungen über mehrere Zeilen vornehmen möchte oder wenn man kompliziertere reguläre Ausdrücke mit „Look-Around-Assertions“ benötigt. Es lohnt sich aber auf jeden Fall, sich mit den vielfältigen Möglichkeiten von sed vertraut zu machen. Gerade für kleinere Aufgaben ist sed hervorragend geeignet und es muss ja auch nicht jedesmal gleich die Skriptsprache $foo ausgepackt werden. sed entspricht daher ganz der Unix-Tradition „Do one thing well“.
Links
  1. http://www.gnu.org/software/sed/
  2. http://sed.sourceforge.net/sedfaq7.html
  3. http://www.opengroup.org/onlinepubs/9699919799/nframe.html
  4. http://en.wikipedia.org/wiki/Comparison_of_regular_expression_engines
  5. http://sed.sourceforge.net/sed1line.txt
Autoreninformation
Christian Brabandt setzt privat fast ausschließlich auf Linux und Freie Software. Von Anfang an interessierte er sich vor allem für Shell-Scripting, den Editor vi und vim und Anwendungsmöglichkeiten der Kommandozeile im Allgemeinen.
Diesen Artikel kommentieren

Zum Index

Rezension: GIMP - kurz & gut

von Dominik Wagenführ
TITELLINK: GIMP - kurz gut
Viele Linux-Anwender nutzen das umfangreiche Bildbearbeitungsprogramm GIMP [1] selten bis gar nicht. Die Gründe dafür sind vielfältig, meist sind sie aber von der Fülle an Funktionen und Optionen erschlagen, die ihnen die freie Bildbearbeitung bietet. Das Buch „GIMP - kurz & gut“ von Karsten Günther soll hier Abhilfe schaffen.
Redaktioneller Hinweis: Siehe zu diesem Thema auch den Artikel „GIMP in 90 Minuten (kennenlernen)“ von Karsten Günther in freiesMagazin 01/2010 [2].

Inhalt

„GIMP - kurz & gut“ gliedert sich in fünf Abschnitte. Im ersten wird die Oberfläche vom GIMP näher vorgestellt. GIMP zeigt (in der Regel) drei Fenster an: den „Werkzeugkasten“ mit den Werkzeugen und zugehörigen Optionen, das Dockfenster mit Ebenen-, Kanal- und Pfadverwaltung etc. sowie natürlich das Bildfenster mit dem zu bearbeitenden Bild.
Der zweite Abschnitt geht dann auf die einzelnen Werkzeuge ausführlich ein. Es wird jedes Icon beschrieben, welches man beim Start von GIMP im Werkzeugkasten findet. Dabei erklärt Karsten Günther sowohl die Optionen, die unter dem gewählten Werkzeug stehen, als auch deren sinnvollen Einsatzzweck. Vor allem bei den Auswahlwerkzeugen muss man Einiges beachten, was den korrekten Einsatz angeht.
Der dritte Abschnitt beschäftigt sich mit den einzelnen GIMP-Menüs. In den Menüs findet man sowohl alternative Zugangsmöglichkeiten zu den einzelnen Werkzeugen, aber natürlich auch noch zahlreiche andere Funktionen, die nicht im Werkzeugkasten zu finden sind. Zu erwähnen sind dabei sicherlich die beiden Menüs „Farben“ und „Filter“, die bei der professionellen Bildbearbeitung eine sehr große und wichtige Rolle spielen. Dementsprechend komplex sind dort auch die Optionen der einzelnen Funktionen, dafür aber auch extrem mächtig.
Im Buch geht Karsten Günther ausführlich auf diese Menüs ein, auch wenn man sich bei den Filtern eine bessere Erklärung gewünscht hätte. Hier findet man ab Seite 116 zu jedem Untermenü einen Absatz, der die jeweiligen Funktionen in zwei bis drei Sätzen erklärt und gegebenenfalls auch Hinweise zu deren Einsatz gibt. In manchen Fällen ist die Erklärung sehr knapp gehalten, was teilweise aber auch verständlich ist, schließlich würde es wohl ein zweites, eigenes Buch benötigen, die über 130 verschiedenen GIMP-Filter ausführlich zu beschreiben.
Im vorletzten Abschnitt widmet sich Karsten Günther dann in kurzer Form (im Vergleich zu den vorigen Kapiteln) dem Dockfenster. Es wird erklärt, welche Funktionen man andocken kann und wie diese arbeiten. So wird auf die Ebenen-, Kanal und Pfadverwaltung eingegangen, ebenso wie auf die Farben, Pinsel und Muster.
Am Ende findet man einen Anhang, in dem unter anderem kurze Hinweise gegeben werden, wenn GIMP nicht „richtig“ arbeitet. Danach findet man auch noch die Parameter, mit denen man GIMP von der Kommandozeile aus starten kann.
Eine besondere Stellung hat die neueste Version GIMP 2.6, auf die im Buch durchgängig hingewiesen wird. So werden kleinere Unterschiede zum Vorgänger 2.4 gezeigt, die auf Seite 150 auch noch einmal in einem extra Abschnitt beschrieben sind.

Zielgruppe

An wen richtet sich das Buch letztendlich? Zuerst würde man natürlich antworten: Vor allem an GIMP-Einsteiger. Die einzelnen Funktionen werden sehr gut erklärt, sodass man schnell nachschlagen kann, wenn man als Neuling vor dem GIMP-Fenstern sitzt und ein Icon oder einen Menüeintrag nicht zuordnen kann oder wenn ein Werkzeug nicht so arbeitet, wie man es sich vorgestellt hat.
Aber nicht nur Einsteiger, sondern auch fortgeschrittene GIMP-Nutzer, die nicht jedes Menü auswendig oder von jeder Funktion die exakte Verhaltensweise kennen, können „GIMP - kurz & gut“ als gutes Nachschlagewerk nutzen.
Profis, die GIMP jahrelang einsetzen, kennen die Funktionen und Menüeinträge sicherlich aus dem Effeff und werden eher wenig Neues im Buch finden.

Kritik

„Gimp - kurz & gut“ ist ein Nachschlagewerk, kein Roman. Dementsprechend trocken liest es sich auch. Als Gute-Nacht-Lektüre ist es daher sicherlich nicht empfohlen, aber schließlich auch nicht gedacht.
Wichtig ist auch, dass nur Funktionen erklärt werden. Es wird also gezeigt, was etwas macht, nicht wie man etwas macht. Zu einem kleinen Teil erfüllt das Glossar am Ende des Buches diese Aufgabe etwas. Anhand von Schlagworten wird erklärt, wie man diese umsetzen kann. Es sind aber sehr wenige Beispiele, die so beschrieben sind. Mit dem Buch lernt man also nur die einzelnen Werkzeuge GIMPs kennen, aber nicht zwingend damit umzugehen.
Positiv erwähnen muss man die verschiedenen Querverweise, die sich durch das Buch ziehen. Egal, welche Seite man aufschlägt, man findet Verweise auf ähnliche Funktionen oder weitere Informationen im Buch. Daneben sind die einzelnen Absätze von extra „Hinweisen“ durchzogen, die zum einen das Lesen auflockern, zum anderen aber auch kleine Tipps und Tricks zeigen, worauf man bei einem bestimmten Werkzeug, das an dieser Stelle gerade behandelt wird, achten muss, möchte man es korrekt einsetzen. Auch gibt es zahlreiche Links auf externe Webseiten und Anleitungen, die den Umgang mit GIMP erklären. Eine besondere Stellung nehmen noch die Plug-ins ein, die nicht zum Standardrepertoire von GIMP gehören. Wichtige Plug-ins findet man in grauem Text unter manchen Abschnitten mitsamt Links zu deren Download.
Nun zu den Negativpunkten (wobei sich die Liste glücklicherweise in Grenzen hält). Das Buch enthält ein paar - wenn auch sehr wenige - Rechtschreib- und Layoutfehler. Die letzteren werden den meisten Lesern aber sicherlich nicht auffallen.
An einigen Stellen merkt man leider, dass aufgrund des Layouts des Buches Satzteile geändert oder gestrichen werden mussten. So findet man auf Seite 103 den “Satz“ „Verlustfrei umkehrbar.“ Natürlich ist das kein richtiger deutscher Satz, sondern nur ein Kommentar, den man am Seitenrand erwartet hätte. Wäre der Absatz aber ein Wort länger, wäre es auf der Seite eine Zeile mehr geworden und der restliche Text hätte sich verschoben. Zugegeben: Das ist Jammern auf hohem Niveau.
Nicht gerade zur Spannung trägt auch der Copy & Paste-Text bei, vor allem bei den Malwerkzeugen, die nun einmal relativ identische Optionen haben. Es hätte wohl gereicht, wenn die gemeinsamen Optionen einmal am Anfang erklärt worden wären und man dann später nur auf diesen Abschnitt verweist.
Auch wenn Karsten Günther sehr ausführlich auf die GIMP-Werkzeuge und -Funktionen eingeht, hätte er einige Dinge doch ausführlicher betrachten können. So wird auf Seite 86 bei der Indizierung eines Bildes zur Option „Internet-optimierte Palette verwenden“ nur gesagt, dass sich die Option von selbst erklärt. Offen gestanden tut sie das nicht, zumal es darüber die Option „Optimale Palette erzeugen“ gibt. Heißt das, dass „optimal“ (zu deutsch: es geht nicht besser) für das Internet doch nicht so optimal ist? Ein zweites Beispiel findet sich auf Seite 89. Hier wird auf die Skalierung eines Bildes eingegangen und dort auch in einem Satz auf das Interpolationsverhalten. Leider wird nicht erklärt, was die vier verschiedenen Auswahlmöglichkeiten „Keine“, „Linear“, „Kubisch“ und „Sinc (Lanczos3)“ auszeichnen. Wenn es egal wäre, gäbe es an der Stelle keinen Auswahlbox.
Etwas optimistisch ist Karsten Günther auch mit seiner Aussage auf Seite 88, dass „hochwertige Drucke [...] etwa 150 ppi [erfordern].“ Die meisten Profis werden hier sicherlich widersprechen, aber selbst für private Fotoausdrucke sollte man keine Bilder unter 300 ppi verwenden.

Tastenbindungen

Nun zum größten Kritikpunkt: Die Tastenkürzel im Buch. Tastenkürzel bzw. Tastenbindungen sind extrem wichtig in GIMP, da man so sehr schnell zu einzelnen Werkzeugen oder Funktionen schalten kann. Dementsprechend hilfreich ist auch die Tabelle im Buch ab Seite 11, welche die wichtigsten Tasten und deren Funktion samt Menüeintrag aufzeigt. (Eine Liste der Tastenbindungen und Menüeinträge gibt es auch als praktischen DinA4-Ausdruck bei O'Reilly [3].) Aber gerade hier gibt es das größte Problem: Wieso hat sich Karsten Günther für eine Mischung aus deutschem und englischen Tastaturlayout entschieden? Und wieso weicht er von der Schreibweise in GIMP ab? Dies mindert den Wiedererkennungswert, besonders für Einsteiger.
Was ist genau gemeint? Auf einer deutschen Tastatur findet man vor allem für die Sondertasten deutsche Bezeichnungen. So heißt es „Strg“, „Entf“ oder „Ende“. Im Buch wird dies leider vermischt. So wird von „Ctrl“, „Del“ oder „Return“ gesprochen, dann aber wieder von „Ende“ oder „Bild Pfeil hoch“. Die Festlegung auf das deutsche Tastaturlayout wäre sinnvoller gewesen. Im Text selbst beschreibt Karsten Günther Funktionen dann zwar oft mit beiden Tasten (Seite 30: „[Ctrl] bzw. [Strg] schaltet in den Bearbeitungsmodus, ...“), aber leider nicht immer.
Daneben wäre es natürlich auch sinnvoll gewesen, wenn in „GIMP - kurz & gut“ die gleichen Bezeichnungen wie in GIMP selbst benutzt worden wären. Sicherlich ist den meisten Lesern die Übertragung von „[Ctrl]+[Shift]+[e]“ auf „[Strg]+[Umschalt]+[E]“ (GIMP-Bezeichnung) möglich, aber es ist unnötig.
An dem Beispiel sieht man auch bereits eine Besonderheit: Buchstabentasten werden im Buch klein geschrieben. Es ist unklar wieso (eine Vermutung ist, dass man so leichter „I“ (großes i) und „l“ (kleines L) auseinanderhalten kann), aber es führt dann zu Aussagen wie „Das Werkzeug (Taste [O], also [Shift][o]) ...“ (Seite 27) und „Das Pfadwerkzeug (Taste [B]) ...“ (Seite 30). Prinzipiell ist das okay, nur ist im zweiten Satz nicht „[B]“, also „[Shift]+[b]“, gemeint, sondern es ist ein Schreibfehler und muss nur „[b]“ lauten.
Extrem kritisch sind dann Kombinationen wie „[Ctrl]+[;]“ (Seite 69), ganz einfach, weil es keine (einzelne) „;“-Taste auf der deutschen (!) Tastatur gibt (auf der englisch dagegen schon). Gemeint war „[Ctrl]+[Shift]+[,]“.
Insgesamt sorgt das für viel Verwirrung, auch beim Autor, denn es kommt vor, dass falsche Tastenkürzel angegeben werden. So wird auf Seite 20 behauptet, man könnte mit „Strg“ + „C“ eine Auswahl invertieren (gemeint war „Strg“ + „I“) und auf Seite 91 f. wird eine Ebene mit „Umschalt“ + „H“ verankert, anstatt korrekterweise mit „Strg“ + „H“.
Es ist zu hoffen, dass in einer zweiten Auflage die Tastenkürzel an GIMP angepasst werden, sodass die Notation in Programm und Buch einheitlich und im Buch selbst konsistent sind.

Fazit

Die aufgezählten Kritikpunkte sind aber nur Kleinigkeiten, das Buch ist im Gesamten gesehen sehr empfehlenswert, da wirklich jeder Punkt in GIMP beschrieben wird. Alles, was darüber hinaus geht, werden Anfänger und etwas fortgeschrittene GIMP-Nutzer für gewöhnlich erst einmal nicht brauchen. Vor allem das sehr gute Preis/-Leistungsverhältnis empfiehlt den Kauf.
Buchinformationen
Titel GIMP - kurz & gut
Autor Karsten Günther
Verlag O'Reilly
Umfang 191 Seiten
ISBN 978-3-89721-553-5
Preis 9,90 €
Redaktioneller Hinweis: Wir bedanken uns beim O'Reilly-Verlag, der uns dieses Rezensionsexemplar von „GIMP - kurz & gut“ zur Verfügung gestellt hat.
Links
  1. http://www.gimp.org/
  2. http://www.freiesmagazin.de/freiesMagazin-2010-01
  3. http://www.oreilly.de/catalog/gimppgger/chapter/gimp2.6-sheet-landscape-A4.pdf
Autoreninformation
Dominik Wagenführ liest gerne und viel. Seine Arbeit bei freiesMagazin erfordert auch die Bearbeitung von Bildern mithilfe von GIMP. Da kam das Buch zur rechten Zeit.
Diesen Artikel kommentieren

Zum Index

Rezension: Python - kurz & gut

von Michael Niedermair
TITELLINK: Python - kurz gut
Python ist eine objektorientierte Programmiersprache zum Schreiben von Skripten und Programmen. Dabei ist Python frei verfügbar und auf vielen Plattformen nutzbar, einschließlich Linux, Unix, Windows und Mac OS.
Das Buch „Python - kurz & gut“ ist eine kompakte Referenz aus dem O'Reilly-Verlag, welches aus dem Englischen übersetzt worden ist und zum schnellen Nachschlagen aller wichtigen Sprachmerkmale und Elemente von Python dient.

Was steht drin?

Das Buch ist in 27 Bereiche unterteilt, die jeweils auf die Besonderheiten der unterschiedlichen Versionen (2.0 - 2.6 und 3.0) eingehen. Es beginnt mit einer Einführung, typografischen Konventionen und einer Beschreibung, wie die Codebeispiele zu nutzen sind. Danach wird kurz auf die Kommandozeilenoptionen und Umgebungsvariablen eingegangen. Richtig los geht es dann mit der Beschreibung von Typen und Operatoren (6 Seiten) und den besonderen eingebauten Typen (37 Seiten) wie Listen, Dictionaries, Dateien usw. Sehr kurz wird dann auf Anweisungen und Syntax (2 Seiten) eingegangen, dann folgen spezifische Anweisungen (27 Seiten) für Bedingungen, Schleifen, Umgebungen etc. Die nächsten beiden Bereiche behandeln den Namensraum (3 Seiten) und die OOP (3 Seiten). Die folgenden 46 Seiten beschäftigen sich mit Operatorenüberladung, eingebauten Funktionen, Ausnahmen und den eingebauten Attributen. Im anschließenden großen Abschnitt (52 Seiten) wird auf einige Module wie zum Beispiel sys, string, os und tkinter eingegangen. Zum Schluss folgen noch fünf Seiten über die Eigenheiten von Python und einige Tipps. Ein Index mit elf Seiten beendet dann das Buch.

Wie liest es sich?

Der Schreibstil des Autors, auch in der deutschen Übersetzung, ist für längeres Lesen nicht geeignet, aber für ein Nachschlagewerk noch akzeptabel. Arbeitet man nur mit der neuesten Pythonversion, muss man immer wieder im Buch springen, da die Informationen für ältere Versionen nicht benötigt werden. Der Index besteht aus Stichwörtern, Methoden-, Modul- und Paketnamen, wobei die Kommandozeilenparameter dazwischen gemischt sind. Die Beispiele sind sehr kurz gehalten und setzen voraus, dass man sich mit der Materie bereits auskennt.

Kritik

Das Buch ist für Programmierer geeignet, die schon einen gewissen Kenntnisstand und Erfahrung mit Python haben, wenn sie das eine oder andere nachschlagen wollen. Anfängern dagegen dürfte es schwer fallen, den für ihr jeweiliges Problem passenden Bereich im Buch zu finden. Der Index ist dabei nicht immer hilfreich. Das Buch ist nicht dafür geeignet, Python zu lernen! Es wäre nützlich, wenn es getrennte Indizes für Stichwörter, Funktionen etc. geben würde. Die Auswahl an beschriebenen Modulen und deren Funktion ist auf ein Minimum beschränkt. Ein aktiver Programmierer würde sich hier ein paar Module mehr wünschen. Die Beispiele könnten aussagekräftiger sein. Es steckt selbst bei der vierten Auflage noch Entwicklungspotenzial im Buch.
Ob die 12,90 € für das Nachschlagewerk sinnvoll angelegt sind oder man beim Programmieren am Rechner doch lieber die kostenlose Onlinehilfe bzw. das Onlinetutorial verwendet, in denen man schnell nach Stichwörtern suchen kann, muss jeder für sich selbst entscheiden.
Buchinformationen
Titel Python - kurz & gut, 4. Auflage
Autor Mark Lutz, Übersetzung: Lars Schulten
Verlag O'Reilly
Umfang 206 Seiten
ISBN 978-3-89721-556-6
Preis 12,90 €
Autoreninformation
Michael Niedermair ist Lehrer an der Münchner IT-Schule und unterrichtet Programmierung, Datenbanken, IT-Technik und Linux. Nebenbei schreibt und liest er viel.
Diesen Artikel kommentieren

Zum Index

Leserbriefe

Für Leserbriefe steht unsere E-Mailadresse redaktion ETT freiesmagazin PUNKT de zur Verfügung - wir freuen uns über Lob, Kritik und Anregungen zum Magazin.
An dieser Stelle möchten wir alle Leser ausdrücklich ermuntern, uns auch zu schreiben, was nicht so gut gefällt. Wir bekommen sehr viel Lob (was uns natürlich freut), aber vor allem durch Kritik und neue Ideen können wir uns verbessern.

Leserbriefe und Anmerkungen

BackupPC

-> Im Artikel [„BackupPC als Backupserver im Heimnetzwerk“, freiesMagazin 02/2010 [1]] wurde noch vergessen, darauf hinzuweisen, dass man bei Windows-Clients u. U. die Firewall entsprechend konfigurieren muss, damit man auf die Admin-Freigabe c$ zugreifen darf.
Gast (Kommentar)
-> Schöner Artikel über eine Backup-SW, die ich noch nicht kannte. Habe selbst schon eine Weile nach Backup-SW gesucht, die mir optimal für ein „Heimbackup“ erscheint, aber das Optimum gibt es wohl nicht.
Bei der BackupPC-Lösung konnte ich leider nicht entdecken, ob eine „Versionierung“ via Datum des Backups o. Ä. unterstützt wird. Außerdem erscheint es mir (fehlerträchtigem) User nicht gut, dass eine Backup-SW etwas vom Zielverzeichnis löschen kann ... (Man stelle sich vor, Quelle und Ziel zu vertauschen.)
Hier habe ich ein wirklich feines Stück Software entdeckt: StoreBackup [2]. Das Tool kann fast alles, was ich mir wünsche, hat nur leider keine grafische Bedienoberfläche. Z. B. ein paar Features:
Man kann als Medium natürlich auch eine verschlüsselte Platte nehmen. Nachteil für mich ist, dass es keine GUI gibt.
Vielleicht ist es ja mal für den einen oder anderen einer näheren Betrachtung wert.
Gast (Kommentar)
<- Vielen Dank für den Hinweis auf StoreBackup. Die Software klingt definitiv interessant und vielleicht findet sich ja auch ein Autor, der die Software in freiesMagazin einmal vorstellen möchte.
Dominik Wagenführ

openSUSE-Distribution

-> Ich las gerade den Artikel zur openSUSE 11.2, der mir inhaltlich sehr gefallen hat. Die Version 11.2 war allerdings die erste Distribution, die von der Firma open-slx [3] vertrieben wurde. Die neu gegründete Firma hat im Rahmen von Novells Outsourcing die Produktion und den Vertrieb, wie auch den Installationssupport übernommen.
Sascha Manns

ZFS unter Linux

-> Interessanter Beitrag, allerdings sind die Beispiele zu raidz2 und raidz3 meiner Meinung nach unsinnig, da zu wenige Platten angegeben sind. So wie ich das verstanden habe, macht RAID6 (doppelte Parity) erst ab vier Platten Sinn und RAID7 (dreifach Parity), oder wie man das nennen mag, erst ab 5 Platten. Wobei das ja schon Overkill ist: mehr Parity als Daten. :)
Robert Perkuhn (Kommentar)
<- Es stimmt, leider habe ich die Beispiele nicht richtig aus meinen Testprotokollen kopiert. Bei raidz2 und raidz3 benötigt man im Prinzip 5 bzw. 8 Platten.
Martin Böcher

Korrekturen und Ergänzungen

Artikel „Machinarium - In der Welt der Maschinen“, freiesMagazin 01/2010 [2]

Wie uns unser Leser Erik Pfannenstein darauf hinwies (Kommentar), hat der angeblich namenslose Roboter aus „Machinarium“ tatsächlich einen Namen. Er heißt Josef, wie man auch im offiziellen Forum nachlesen kann [4].

Korrektur „Shebang - All der Kram“, freiesMagazin 01/2010 [5]

Eine Korrektur zur Korrektur ist auch eher selten, aber kommt dank des Hinweises von Andreas Klein auch einmal vor.
Natürlich ist es schön zu wissen, dass
#/bin/sh
echo $0 $@
nicht dasselbe wie
#/bin/echo
tut, aber ohne eigentliche Problemlösung bringt dies nicht viel, denn die Verarbeitung der Leerzeichen ist problematisch.
Lösen kann man das Ganze, indem man solche in der Shell verarbeiteten Ausdrücke in Anführungszeichen setzt:
#/bin/sh
echo "$0" "$@"
Dann machen auch (mehrfache) Leerzeichen keine Probleme mehr.
Links
  1. http://www.open-slx.de
  2. http://www.freiesmagazin.de/freiesMagazin-2010-02
  3. http://storebackup.org/
  4. http://www.freiesmagazin.de/freiesMagazin-2010-01
  5. http://machinarium.net/forum/index.php?topic=651.0
Die Redaktion behält sich vor, Leserbriefe gegebenenfalls zu kürzen. Redaktionelle Ergänzungen finden sich in eckigen Klammern.
Die Leserbriefe kommentieren

Zum Index

Veranstaltungskalender

Messen
Veranstaltung Ort Datum Eintritt Link
Open-Source-Info-Meeting Traunreut 12.03.2010 frei http://www.cubewerk.de
12. Chemnitzer Linux-Tage Chemnitz 13.-14.03.2010 5 EUR http://chemnitzer.linux-tage.de
OpenExpo Bern 24.-25.03.2010 - http://www.openexpo.ch
Augsburger Linux-Infotag Augsburg 27.03.2010 frei http://www.luga.de
LiWoLi 2010 Linz 15.-17.04.2010 frei http://linuxwochen.at
Der Freie Software Tag Krems 17.04.2010 frei http://linuxwochen.at
Grazer Linuxtage Graz 24.04.2010 frei http://linuxwochen.at
Linuxwochen Wien Wien 06.-08.05.2010 frei http://linuxwochen.at
LUG Camp Roth 13.-16.05.2010 55 EUR https://lug-camp-2010.de
Freifunk Weekend Berlin 14.-16.05.2010 frei https://wiki.freifunk.net
Linuxwochen Eisenstadt Eisenstadt 28.-29.05.2010 frei http://linuxwochen.at
LinuxTag Berlin 09.-12.06.2010 12 EUR http://www.linuxtag.de
FrOSCon Sankt Augustin 21.-22.08.2010 5 EUR http://www.froscon.de
FrOSCamp Zürich 17.-18.09.2010 frei http://froscamp.org
Ubucon 2010 Göttingen 15.-17.10.2010 - http://2010.ubucon.de/
OOoKWV München 16.-17.11.2010 - http://www.oookwv.de
(Alle Angaben ohne Gewähr!)
Sie kennen eine Linux-Messe, welche noch nicht auf der Liste zu finden ist? Dann schreiben Sie eine E-Mail mit den Informationen zu Datum und Ort an redaktion ETT freiesmagazin PUNKT de.
Zum Index

Vorschau

freiesMagazin erscheint immer am ersten Sonntag eines Monats. Die April-Ausgabe wird voraussichtlich am 1. April unter anderem mit folgenden Themen veröffentlicht: Es kann leider vorkommen, dass wir aus internen Gründen angekündigte Artikel verschieben müssen. Wir bitten dafür um Verständnis.
Zum Index

Impressum ISSN 1867-7991

freiesMagazin erscheint als PDF und HTML einmal monatlich.
Redaktionsschluss für die April-Ausgabe: 14. März 2010
Kontakt
E-Mail redaktion ETT freiesmagazin PUNKT de
Postanschrift freiesMagazin
c/o Dominik Wagenführ
Beethovenstr. 9/1
71277 Rutesheim
Webpräsenz http://www.freiesmagazin.de
Autoren dieser Ausgabe
Christian Brabandt Effektives automatisiertes Bearbeiten von Daten mit sed
Volker Duetsch Vim und das Surround-Plug-in
Hauke Goos-Habermann Eigene Paketquellen zusammenstellen mit local-apt
Ralf Hersel Pimp my Desktop
Marcel Jakobs Die Z-Shell (zsh) - Eine mächtige Alternative zur Bash
Thorsten van Lil Mandriva Linux 2010
Mathias Menzer Der Februar im Kernelrückblick
Michael Niedermair Rezension: Python - kurz & gut
Jochen Schnelle Google Charts - Diagramme über das Internet erstellen
Dominik Wagenführ Rezension: GIMP - kurz & gut
Erscheinungsdatum: 7. März 2010
Redaktion
Dominik Honnef Thorsten Schmidt
Dominik Wagenführ (Verantwortlicher Redakteur)
Satz und Layout
Ralf Damaschke Yannic Haupenthal
Michael Niedermair
Korrektur
Daniel Braun Frank Brungräber
Stefan Fangmeier Mathias Menzer
Karsten Schuldt
Veranstaltungen
Ronny Fischer
Logo-Design
Arne Weinberg (GNU FDL)
Dieses Magazin wurde mit LaTeX erstellt. Mit vollem Namen gekennzeichnete Beiträge geben nicht notwendigerweise die Meinung der Redaktion wieder. Wenn Sie freiesMagazin ausdrucken möchten, dann denken Sie bitte an die Umwelt und drucken Sie nur im Notfall. Die Bäume werden es Ihnen danken. ;-)
Soweit nicht anders angegeben, stehen alle Artikel und Beiträge in freiesMagazin unter der GNU-Lizenz für freie Dokumentation (FDL). Das Copyright liegt beim jeweiligen Autor. freiesMagazin unterliegt als Gesamtwerk ebenso der GNU-Lizenz für freie Dokumentation (FDL) mit Ausnahme von Beiträgen, die unter einer anderen Lizenz hierin veröffentlicht werden. Das Copyright liegt bei Dominik Wagenführ. Es wird die Erlaubnis gewährt, das Werk/die Werke (ohne unveränderliche Abschnitte, ohne vordere und ohne hintere Umschlagtexte) unter den Bestimmungen der GNU Free Documentation License, Version 1.2 oder jeder späteren Version, veröffentlicht von der Free Software Foundation, zu kopieren, zu verteilen und/oder zu modifizieren. Die xkcd-Comics stehen separat unter der Creative-Commons-Lizenz CC-BY-NC 2.5. Das Copyright liegt bei Randall Munroe.
Zum Index




File translated from TEX by TTH, version 3.85.
On 7 Mar 2010, 14:16.