staging.inyokaproject.org

3. Oktober 2024

Mit chezmoi lassen sich nicht nur einzelne Konfigurationsdateien verwalten, sondern auch ganze Verzeichnisse.

Auf meinen Rechnern sieht der Inhalt des Verzeichnisses ~/.config/zsh beispielsweise folgendermaßen aus.

 1zsh
 2├── aliase.zsh
 3├── completion.zsh
 4├── environment.zsh
 5├── functions.d
 6│   ├── clrhist
 7│   ├── sshf
 8│   ├── up
 9│   └── updpkgbuild
10├── functions.zsh
11├── options.zsh
12├── prompt.zsh
13├── .zhistory
14└── .zshrc

Führt man chezmoi add ~/.config/zsh aus, werden alle darin enthaltenen Dateien übernommen. Was aber nicht immer gewünscht ist.

Damit chezmoi bestimmte Dateien bzw. Verzeichnisse ignoriert, legt man in der Standardkonfiguration unter ~/.local/share/chezmoi die Datei .chezmoiignore an und trägt die Dateien / Verzeichnisse ein die ignoriert werden sollen. Will man nun, dass chezmoi die Datei .zhistory ignoriert, reicht es in dem Fall aber nicht, einfach .zhistory in die Datei zu schreiben. Man muss doublestar.Match verwenden. Somit würde bei diesem Beispiel der Eintrag **/.zhistory funktionieren.

Führt man nun chezmoi add ~/.config/zsh aus, sollte “chezmoi: warning: ignoring .config/zsh/.zhistory” angezeigt werden und die Datei sollte nicht übernommen werden.

2. Oktober 2024

Um Konfigurationsdateien auf mehreren Rechnern zu verwalten, kann man das Tool chezmoi nutzen.

Das Tool erstellt hierfür unter ~/.local/share/chezmoi ein lokales Git-Repository. Allerdings habe ich alle meine anderen Repositories in einem anderen Verzeichnis gespeichert. Daher habe ich mich gefragt, ob man das Standardverzeichnis von chezmoi ändern kann. Ja, kann man.

Hierfür legt man, falls nicht bereits vorhanden, die Datei ~/.config/chezmoi/chezmoi.toml an und trägt in dieser beispielsweise folgendes ein.

1sourceDir = "~/repository/dotfiles"

Führt man nun chezmoi init aus, wird das Repository nicht mehr in ~/.local/share/chezmoi, sondern im angegebenen Verzeichnis erstellt.

Die MZLA Technologies Corporation hat mit Thunderbird 128.3 ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 128.3

Mit dem Update auf Thunderbird 128.3 hat die MZLA Technologies Corporation ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht. Das Update bringt diverse Fehlerbehebungen und Verbesserungen unter der Haube, welche sich in den Release Notes (engl.) nachlesen lassen. Auch wurden diverse Sicherheitslücken geschlossen.

Der Beitrag Thunderbird 128.3 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

30. September 2024

Die MZLA Technologies Corporation hat die erste Beta-Version von Thunderbird für Android veröffentlicht. Die App steht im Google Play Store sowie auf GitHub zum Download bereit.

Im Sommer 2022 wurde die Übernahme des E-Mail-Clients K-9 für Android durch die MZLA Technologies Corporation, Entwicklerin von Thunderbird, bekannt gegeben. Nun steht eine erste Beta-Version von Thunderbird für Android zum Download bereit, wahlweise über den Google Play Store oder via GitHub. Später soll auch noch F-Droid als zusätzliche Option dazukommen.

Die Veröffentlichung der ersten finalen Version von Thunderbird für Android ist derzeit für die vierte Oktoberwoche geplant. Dann wird es auch eine ausführlichere Vorstellung auf diesem Blog geben.

Der Beitrag Thunderbird Beta für Android veröffentlicht erschien zuerst auf soeren-hentzschel.at.

Dieser Artikel gibt meine Motivation für den Bau von Container-Images und die Vorgehensweise wieder und zeigt, wie ich mit Buildah meine OCI-kompatiblen Container-Images erstelle.

Es handelt sich dabei mehr um einen Erfahrungsbericht als ein Tutorial und ich erhebe keinen Anspruch auf Vollständigkeit. Das behandelte Beispiel ist jedoch zum Einstieg und zur Nachahmung für all jene geeignet, die Container ausführen können und diese gerne ohne Verwendung von Containerfiles bauen möchten.

Motivation

Ich möchte die Ansible-Rollen aus meiner Collection tronde.nextcloud mit Molecule und Podman-Containern testen. Als Zielplattform für das Deployment der Nextcloud unterstütze ich zunächst Debian und RHEL.

Die Tests sollen verifizieren, dass Nextcloud im Container in einer rootless-Podman-Umgebung bereitgestellt werden kann. Da der Test unter Verwendung von Podman-Containern durchgeführt werden soll, müssen diese Container eine solche rootless-Podman-Umgebung bereitstellen.

Für RHEL 8 und RHEL 9 habe ich entsprechende Container-Images gefunden. Für Debian bin ich nicht fündig geworden und habe daher beschlossen, diese Container-Images selbst zu erstellen.

Buildah ist das Werkzeug meiner Wahl, da:

  • Container-Images damit interaktiv erstellt werden können,
  • die verwendeten Befehle am Ende in einem Bash-Skript gesammelt werden können,
  • sich damit sogar interaktive Abfragen mit Heredocs beantworten lassen,
  • man kein containerfile(5) benötigt und
  • ich das Werkzeug noch nicht kenne und es gerne kennenlernen möchte.

Für mich sind dies ausreichend Gründe, um mich kopfüber in ein neues Container-Projekt zu stürzen. Wer mehr über die Beziehung von Buildah zu Podman erfahren möchte, dem empfehle ich den englischsprachigen Artikel: Buildah and Podman Relationship von Tom Sweeney.

Mein Weg zum Image

Um rootless Podman in einem Container zum Laufen zu bekommen, habe ich mich an dem englischsprachigen Artikel How to use Podman inside of a container von Dan Walsh orientiert. Das Ergebnis findet ihr in meinem GitHub-Repo tronde/container-image-forge.

Die folgenden Code-Blöcke zeigen Auszüge aus dem Skript buildah_create_debian_bookworm_with_rootless_podman.sh (Commit 7634ed8). Die enthaltenen Befehle werden unter dem jeweiligen Code-Block erläutert. Alle Befehle werden als normaler Benutzer ohne Root-Rechte ausgeführt.

# Name of target container image
tctri=debian_rootless_podman

# Get a base image
ctr=$(buildah from --pull=newer docker://docker.io/library/debian:bookworm)
  • Die Variable tctri nimmt den Namen des Container-Images auf, welches ich erzeugen werde
  • Die Variable ctr nimmt den Namen des Containers auf, welcher durch den buildah-from(1)-Befehl erzeugt wird; mit diesem Container wird im Folgenden gearbeitet
  • Die Option --pull=newer sorgt dafür, dass das Image nur dann aus der angegebenen Registry heruntergeladen wird, wenn es aktueller als das evtl. lokal gespeicherte Image ist
buildah run -- $ctr apt -y update
buildah run -- $ctr apt -y upgrade
buildah run -- $ctr apt -y install podman fuse-overlayfs libvshadow-utils libcap2-bin ca-certificates
  • Mit buildah-run(1) werden Befehle innerhalb des Arbeits-Containers ausgeführt
  • Ich aktualisiere die im Basis-Image enthaltenen Pakte und
  • installiere die für rootless Podman benötigten Pakete
  • Das Paket ca-certificates wird benötigt, um später Container-Images aus einer Registry herunterladen zu können
buildah run -- $ctr useradd podman
buildah run -- $ctr sh -c "echo podman:1:999 > /etc/subuid"
buildah run -- $ctr sh -c "echo podman:1001:64535 >> /etc/subuid"
buildah run -- $ctr sh -c "echo podman:1:999 > /etc/subgid"
buildah run -- $ctr sh -c "echo podman:1001:64535 >> /etc/subgid"
buildah run -- $ctr setcap cap_setuid+epi /usr/bin/newuidmap
buildah run -- $ctr setcap cap_setgid+epi /usr/bin/newgidmap
  • Mit den hier dargestellten Befehlen wird der nicht-privilegierte Benutzer podman erstellt
  • Die IDs für /etc/sub[g,u]id habe ich mir aus dem ubi9/podman-Image abgeschaut
  • Die setcap-Befehle sind notwendig, um rootless Podman ausführen zu können; ich habe sie durch Internetrecherche und Trial-and-Error zusammengestellt
buildah config -v /var/lib/containers $ctr
buildah config -v /home/podman/.local/share/containers $ctr
  • Das Image wird in der Lage sein, rootful und rootless Podman auszuführen
  • Mit den beiden Befehlen werden die Volumes hinzugefügt, die Podman als Container Storage nutzt
    • Rootful Podman verwendet /var/lib/containers
    • Rootless Podman verwendet /home/podman/.local/share/containers
buildah run -- $ctr chown -R podman:podman /home/podman
buildah run -- $ctr sh -c "mkdir -p /var/lib/shared/overlay-images /var/lib/shared/overlay-layers /var/lib/shared/vfs-images /var/lib/shared/vfs-layers; touch /var/lib/shared/overlay-images/images.lock; touch /var/lib/shared/overlay-layers/layers.lock; touch /var/lib/shared/vfs-images/images.lock; touch /var/lib/shared/vfs-layers/layers.lock"
buildah config --env _CONTAINERS_USERNS_CONFIGURED="" $ctr
  • Der Benutzer podman bekommt ein HOME-Verzeichnis
  • Ich erstelle die Verzeichnisse, die ich im Artikel [7] gefunden habe
  • Ich erstelle die Environment-Variable, die ich ebenfalls in genanntem Artikel [7] gefunden habe
buildah run -- $ctr apt -y reinstall uidmap
buildah run -- $ctr apt -y clean
buildah run -- $ctr rm -rf /var/lib/apt/lists/*
  • Aus mir nicht bekannter Ursache muss das Paket uidmap neu installiert werden, um ein UID/GID-Mapping sicherzustellen; dies scheint analog zur Neuinstallation der shadow-utils in Artikel [7] notwendig zu sein
  • Die beiden folgenden Befehle sollen den Paket-Cache aufräumen, um die Größe des resultierenden Images zu verkleinern, zeigen jedoch keinen sichtbaren Effekt
# Commit to an image
buildah commit --rm $ctr $tctri
# Alternative: Use this and add GPG fingerprint for image signing
# buildah commit --sign-by <fingerprint> --rm $ctr $tctri

# Tag the image just created
buildah tag $tctri $tctri:bookworm-$(date --iso)
  • Mit buildah-commit(1) wird der Inhalt des Arbeits-Containers $ctr in ein Container-Image namens $tctri geschrieben
  • Durch Angabe der Option --rm wird der Arbeits-Container entfernt
  • Die Kommentarzeile lässt erkennen, dass ich zukünftig beabsichtige, meine Images digital zu signieren
  • buildah-tag(1) fügt dem Image einen Tag mit Datumsstempel hinzu; siehe auch: Recommendations for tagging and versioning container images

Der Befehl buildah-commit(1) fügt dem neuen Image übrigens nur einen weiteren Layer hinzu, egal wie viele Befehle zuvor im Arbeits-Container ausgeführt wurden. Das erzeugte Image umfasst also die Layer des Basis-Image plus einen weiteren.

Zwischenfazit

An diesem Punkt habe ich ein Basis-Image ausgewählt, mithilfe von buildah zusätzliche Software installiert, einen Benutzer hinzugefügt und ein neues Image erzeugt.

Um den Build-Prozess zu automatisieren, habe ich die notwendigen Befehle in Bash-Skripte geschrieben und unter https://github.com/Tronde/container-image-forge abgelegt.

Die fertigen Images halte ich in der Registry https://quay.io/repository/rhn-support-jkastnin/debian_rootless_podman vor. Fühlt euch frei, diese für eigene Experimente zu benutzen, doch verwendet sie nur mit Vorsicht in Produktion. Ich erzeuge diese Images nur nach Bedarf neu, so dass die veröffentlichen Versionen veraltet und voller Sicherheitslücken sein können.

Validierung

Jetzt, wo die Images fertig sind, kann ich prüfen, ob sich rootless Podman darin auch wie gewünscht ausführen lässt.

Die Prozesse innerhalb des von meinem Container-Image instanziierten Containers laufen als Benutzer root. Um die Prozesse als Benutzer podman auszuführen, ist dies beim Aufruf von podman run explizit mit anzugeben. Der folgende Code-Block verdeutlicht dies und zeigt zugleich den ersten Fehler beim Versuch rootless Podman auszuführen.

]$ podman run --rm localhost/debian_rootless_podman:bookworm-2024-09-21 id
uid=0(root) gid=0(root) groups=0(root)
]$ podman run --rm --user podman localhost/debian_rootless_podman:bookworm-2024-09-21 id
uid=1000(podman) gid=1000(podman) groups=1000(podman)
]$ podman run --rm --security-opt label=disable --user podman --device /dev/fuse localhost/debian_rootless_podman:bookworm-2024-09-21 podman info
time="2024-09-21T18:43:35Z" level=error msg="running `/usr/bin/newuidmap 15 0 1000 1 1 1 999 1000 1001 64535`: newuidmap: write to uid_map failed: Operation not permitted\n"
Error: cannot set up namespace using "/usr/bin/newuidmap": exit status 1

Der Fehler deutet auf fehlende capabilities(7) hin. Um diese Hypothese zu testen, wiederhole ich den letzten Befehl mit der Option --privileged (siehe dazu podman-run(1)):

]$ podman run --rm --security-opt label=disable --user podman --device /dev/fuse --privileged localhost/debian_rootless_podman:bookworm-2024-09-21 podman info
host:
…

Damit funktioniert es. Leider geben sich viele Menschen an dieser Stelle mit dem Ergebnis zufrieden. Doch ich möchte diese Container nicht einfach mit --privileged ausführen. Also studiere ich die Manpage capabilities(7) und teste mich Stück für Stück heran, bis ich mit dem folgenden Kommando ebenfalls erfolgreich bin:

]$ podman run  --rm --user podman --security-opt label=disable --device /dev/fuse --cap-add=setuid,setgid,sys_admin,chown localhost/debian_rootless_podman:bookworm-2024-09-21 podman info
host:
…

Dies ist schon deutlich besser, da dem Container hiermit deutlich weniger Privilegien eingeräumt werden müssen. Das Thema Container-Privilegien und capabilities(7) werde ich noch genauer untersuchen. Eventuell folgt dazu dann auch ein weiterer Artikel. Für den Moment ist das Ergebnis gut genug.

Quellen und weiterführende Links

  1. Buildah.io
  2. Ansible Collection tronde.nextcloud
  3. Mein Wochenendprojekt Nextcloud im Container
  4. Podman Images im Red Hat Catalog
  5. Buildah and Podman Relationship von Tom Sweeney
  6. About Ansible Molecule
  7. How to use Podman inside of a container by Dan Walsh
  8. Using podman containers
  9. Having trouble getting started with rootless podman running rootless podman inside a Debian 12 image #23838
  10. Recommendations for tagging and versioning container images

29. September 2024

Mozilla hat Version 2.24 seiner VPN-Clients für das Mozilla VPN veröffentlicht. Dieser Artikel beschreibt die Neuerungen vom Mozilla VPN 2.24.

Mit dem Mozilla VPN bietet Mozilla in Zusammenarbeit mit Mullvad sein eigenes Virtual Private Network an und verspricht neben einer sehr einfachen Bedienung eine durch das moderne und schlanke WireGuard-Protokoll schnelle Performance, Sicherheit sowie Privatsphäre: Weder werden Nutzungsdaten geloggt noch mit einer externen Analysefirma zusammengearbeitet, um Nutzungsprofile zu erstellen.

Jetzt Mozilla VPN nutzen

Die Neuerungen vom Mozilla VPN 2.24

Das Update auf das Mozilla VPN 2.24 bringt keine neuen Funktionen, sondern ausschließlich Fehlerbehebungen und Verbesserungen unter der Haube. Für Nutzer eines Mac-Computers ist macOS 11 die neue Mindestanforderung.

Der Beitrag Mozilla VPN 2.24 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

Die letzten wichtigen verbleibenden Bausteine für den Realtime-Support für Linux wurden in den Mainline-Zweig aufgenommen. Das bedeutet, dass Linux 6.12 voraussichtlich in einem echtzeitfähigen Modus betrieben werden kann, wenn der Kernel entsprechend kompiliert wird.

Echtzeitfähigkeit wird insbesondere in Embedded-Szenarien benötigt, wenn auf eine Eingabe innerhalb einer vorhersagbaren Zeit eine Antwort erwartet wird. Speziell in der Robotik, aber auch in der Multimediaproduktion gibt es solche Anforderungen. Dabei kommt es nicht darauf an, dass eine Aufgabe schnell abgearbeitet wird, sondern, dass sie in einer deterministischen Zeit begonnen wird.

Ein Beispiel für Echtzeit

An dieser Stelle mag sich die Frage stellen, was diese Echtzeitfähigkeit, von der hier geredet wird, überhaupt ist. Das lässt sich gut am Beispiel eines Line-following Robot klären. Was ein solcher Roboter tut, kann man sich z. B. in diesem YouTube-Video ansehen. Technisch besteht so ein Roboter aus zwei (oder mehr) Kameras als Sensoren, zwei Motoren für jeweils ein Rad als Aktoren und einem Controller zur Steuerung. Die Kameras sollen den Kontrast ermitteln, damit festgestellt werden kann, ob sie noch auf die schwarze Linie zeigen. Bemerkt eine der Kameras beim Fahren, dass sie den Sichtkontakt zur Linie aufgrund z. B. einer Kurve verliert, müssen die Motoren durch eine leichte Drehung nachsteuern, um auf der Linie zu bleiben.

Diese Kameras lösen üblicherweise entsprechend ihrer Abtastfrequenz auf dem Controller für die Steuerung einen Interrupt aus. Das führt zur Abarbeitung der Steuerungsroutine, die für beide Motoren die Geschwindigkeit berechnet, mit der sie sich drehen sollen.

Entscheidend ist, dass nicht beide Kameras den Sichtkontakt verlieren, damit der Roboter weiterhin weiß, in welche Richtung er nachsteuern muss. Üblicherweise wird das beim Testen funktionieren, aber es kann in bestimmten Randbedingungen bei normalen Betriebssystemen, wenn der Controller z. B. mit vielen anderen Aufgaben zufälligerweise beschäftigt ist, passieren, dass auf einmal nicht schnell genug die Routine aufgerufen wird. Der Roboter verliert dann den Sichtkontakt.

Der Entwickler eines solchen Roboters kann nun eine Echtzeitanforderung formulieren, dass z. B. auf ein Interrupt von den Kameras innerhalb von 1 Millisekunde reagiert werden muss. Er kann mit dieser Anforderung jetzt die maximale Geschwindigkeit des Roboters so wählen, dass der Roboter langsam genug fährt, um nicht die Linie – trotz der Latenz von im worst-case 1 Millisekunde – nicht zu verlieren.

Diese 1 Millisekunde muss aber auch vom Controller, seinem Betriebssystem und schließlich seinem Kernel garantiert werden. Der Kernel muss also in jeder Situation in der Lage sein, auf eine Anforderung innerhalb einer vorbestimmten Zeit zu reagieren. Unabhängig von der zwingenden Fähigkeit, präemptiv zu arbeiten, also jederzeit anderer Prozesse unterbrechen zu können, darf der Kernel auch nicht mit sich selber unvorhersehbar lange beschäftigt sein, wenn z. B. eine Synchronisation hängt.

20 Jahre Arbeit

Und genau hierum geht es beim grob gesagt beim PREEMPT_RT-Patch. Der Kernel muss so nachgebessert werden, dass keine Komponente sich unnötig lange aufhängt und somit die Abarbeitung von Aufgaben behindert, für die eine garantierte Ausführungszeit festgelegt wurde.

Die ursprüngliche Arbeit begann bereits im Jahr 2004 auf einem getrennten Zweig und hatte viele Verbesserungen in den Kernel gebracht, zuletzt an der printk()-Infrastruktur. Jetzt sollten die Arbeiten so weit sein, dass Realtime nicht mehr auf einem getrennten Zweig, sondern im Hauptzweig entwickelt werden kann.

Die Echtzeitfähigkeit gab es somit in speziell präparierten Kernels schon lange. Neu ist, dass der Code im Hauptzweig gepflegt wird und somit besser mit Änderungen anderer Maintainer abgestimmt werden kann. Denn eine Änderung an einer anderen Komponente reicht schon aus, um die Echtzeitfähigkeit zu unterminieren.

Linux echtzeitfähig zu machen, ist somit ein großer Aufwand gewesen, weil man solche Fähigkeiten oft nur in spezialisierten Betriebssystemen (sogenannten Real-time operating systems, RTOS) vorfindet. Insbesondere Thomas Gleixner und John Ogness haben hier große Anstrengungen unternommen. Jetzt, nach knapp 20 Jahren Arbeit, dürfte das Vorhaben einen wichtigen Meilenstein erreichen.

Wer sich für einen tieferen Einblick in die Linux-RT-Welt interessiert, kann einerseits den Artikel von Thomas Leemhuis auf Heise Online von letzter Woche lesen oder sich auf LWN durch das Artikelarchiv zu der Thematik arbeiten.

24. September 2024

Firefox besitzt eine Übersetzungsfunktion für Websites, welche im Gegensatz zu Cloud-Übersetzern wie Google Translate lokal arbeitet, die eingegebenen Texte also nicht an einen fremden Server sendet. Auch in diesem Monat wurde die Unterstützung von Sprachen erweitert.

Firefox wird seit Version 118 standardmäßig mit einer lokalen Funktion zur maschinellen Übersetzung von Websites für den Browser ausgeliefert. Das bedeutet, dass die Übersetzung vollständig im Browser geschieht und keine zu übersetzenden Inhalte an einen Datenriesen wie Google oder Microsoft übermittelt werden müssen.

Seit ich im vergangenen Monat zuletzt berichtet hatte, ist die Unterstützung weiterer Sprachen dazugekommen.

Komplett neu sowohl für finale als auch Nightly-Versionen von Firefox ist die Unterstützung sowohl aus dem Schwedischen als auch ins Schwedische, nach Finnisch sowie Türkisch. Neu in finalen Firefox-Versionen, zuvor aber bereits in Nightly-Versionen unterstützt, sind Übersetzungen aus dem Griechischen, Russischen sowie Slowenischen. Nightly-Versionen erhalten außerdem die Unterstützung von Übersetzungen ins Slowakische neu dazu.

Da die Sprachmodelle über die Remote-Einstellungen von Firefox bereitgestellt werden, ist die Unterstützung neuer Sprachen an kein Firefox-Update gebunden und funktioniert direkt in jedem Firefox mit aktivierter Übersetzungsfunktion.

Damit unterstützt die Übersetzungsfunktion Firefox bereits 28 Sprachen in mindestens eine Richtung. Für die Nightly-Version von Firefox sind es sogar schon 34 Sprachen. Mozilla arbeitet mit Hochdruck daran, dass noch viele weitere folgen werden.

Firefox Translations September 2024

Der Beitrag Neue Sprachen für Übersetzungsfunktion von Firefox erschien zuerst auf soeren-hentzschel.at.

23. September 2024

Mittels Synchronisation lassen sich Firefox-Daten wie Lesezeichen, Chronik, Tabs und Passwörter zwischen Geräten synchronisieren. Ab Firefox 132 wird es möglich sein, synchronisierte Tabs aus der Ferne zu schließen.

In Firefox lassen sich nicht nur Daten wie Lesezeichen, Chronik und Passwörter synchronsieren, man kann auch die gleichen Tabs öffnen, die auf anderen Geräten bereits geöffnet sind. Dies ist beispielsweise über die Sidebar für synchronisierte Tabs möglich.

Ab Firefox 132 wird es dort über das Kontextmenü der einzelnen synchronisierten Tabs möglich sein, die jeweiligen Tabs auf den anderen Geräten zu schließen. Diese Möglichkeit steht jedoch nur in der neuen Sidebar zur Verfügung, welche in Firefox 132 noch nicht standardmäßig aktiviert ist und über den Abschnitt „Firefox Labs“ in den Firefox-Einstellungen aktiviert werden kann.

Firefox 132: Synchronisierte Tabs schließen

Firefox 132 wird nach aktueller Planung am 29. Oktober 2024 erscheinen.

Der Beitrag Firefox 132: Tabs auf anderen Geräten schließen erschien zuerst auf soeren-hentzschel.at.

22. September 2024

JPEG-XL ist ein Bildformat, welches anderen Bildformaten in vielen Aspekten – zumindest auf dem Papier – überlegen ist. Andere Browserhersteller als Apple waren bisher allerdings nicht von einer Unterstützung zu überzeugen. Dies könnte sich für Firefox und Chrome ändern.

Nightly-Versionen von Firefox bieten bereits seit Mai 2021 eine experimentelle Unterstützung für das Bildformat JPEG-XL, kurz: JXL, welche über about:config aktiviert werden kann, indem der Schalter image.jxl.enabled per Doppelklick auf true gesetzt wird. Auch wenn der Schalter in Beta- sowie finalen Firefox-Versionen ebenfalls zur Verfügung steht, ist eine Aktivierung auf diesen Kanälen nicht möglich. Google hat seine experimentelle Unterstützung für JPEG-XL im Februar 2023 wieder aus Chrome entfernt. Im Gegensatz dazu unterstützt Apple für macOS und iOS das Bildformat JPEG-XL seit Safari 17 im September 2023.

Große Unternehmen wie Meta, Adobe, Shopify und weitere sind große Unterstützer von JPEG-XL, da hiermit gegenüber aktuell unterstützten Bildformaten, einschließlich WebP und AVIF, weitere Reduzierungen der Dateigrößen bei gleichbleibender Qualität oder höhere Qualität ohne Erhöhung der Dateigrößen von Bildern möglich sind.

Anfang September 2024 hat Mozilla eine Aktualisierung seiner Position bezüglich JPEG-XL vorgenommen, welche Hoffnung auf eine Unterstützung auch in anderen Browsern als Safari machen darf.

Demnach liegt Mozillas größtes Bedenken im erhöhten Angriffsvektor, den der über 100.000 Zeilen schwere Multithreaded C++-Code des Referenz-Decoders mit sich bringt. Man habe in den letzten Monaten allerdings produktive Unterhaltungen mit dem JPEG-XL-Team von Google Research gehabt, welches sich bereit erklärt habe, sein Fachwissen einzusetzen, um einen sicheren, leistungsfähigen, kompakten und kompatiblen JXL-Decoder in Rust zu entwickeln und diesen Decoder in Firefox zu integrieren. Ein in Rust geschriebener Decoder würde das Risiko und damit auch Mozillas Bedenken erheblich reduzieren. Gelingt dies und erfüllt Mozillas Anforderungen, würde Mozilla diesen in Firefox ausliefern.

Hierin stecken nicht nur gute Nachrichten für Firefox-Nutzer, sondern auch für Nutzer von Google Chrome sowie sämtlichen anderen auf Chromium basierenden Browsern. Denn Google würde keinen JXL-Decoder entwickeln und zu Firefox beitragen, würden sie nicht selbst auch JPEG-XL unterstützen wollen.

Der Beitrag Neue Hoffnung für Unterstützung von Bildformat JPEG-XL (JXL) in Firefox und Chrome erschien zuerst auf soeren-hentzschel.at.

21. September 2024

Mit Common Voice stellt Mozilla den weltweit größten öffentlichen Datensatz menschlicher Stimmen bereit – kostenlos und für jeden nutzbar. Mozilla hat Version 19.0 seines Datensatzes veröffentlicht.

Der Markt für Spracherkennung wird von den ganz großen Namen kommerzieller Anbieter dominiert: Amazon, Apple, Google, Microsoft. Darum hat Mozilla im Jahr 2017 das Projekt Common Voice gestartet. Mit Common Voice bietet Mozilla eine kostenlose Alternative an, zu der jeder beitragen kann und die jedem zur Verfügung steht. Damit möchte Mozilla Innovation und Wettbewerb in der Sprachtechnologie auf Basis von Maschinenlernen fördern.

Mit dem nun veröffentlichten Common Voice Corpus 19.0 wächst der deutschsprachige Datensatz von 1.431 auf 1.436 Stunden an. Wer bereits den Common Voice Corpus 18.0 besitzt, kann wie immer auch nur ein sogenanntes Delta Segment mit den Unterschieden zur Vorversion herunterladen. Für Deutsch würde das den Download von 33,6 GB auf 108 MB reduzieren.

Insgesamt deckt Mozilla Common Voice mit der neuen Version jetzt 131 Sprachen mit insgesamt 32.584 aufgenommenen Stunden ab, was Mozilla Common Voice zum vielfältigsten mehrsprachigen Sprachkorpus der Welt macht.

Zum Download der Mozilla Common Voice Datensätze

Der Beitrag Mozilla veröffentlicht Common Voice Corpus 19.0 erschien zuerst auf soeren-hentzschel.at.

Mit der meisten Texterkennungssoftware wandel man beispielsweise eine Bilddatei mit Text in bearbeitbaren Text um. NormCap hingegen könnte man hingegen mit einem Screenshot-Tool vergleichen, dass Text erstellt.

Nehmen wir an, man lässt sich folgendes Bild mit Okular auf dem Bildschirm anzeigen.

Bild das mit Okular angezeigt wird
Foto eines zutreffenden Schildes das mit Okular angezeigt wird

Nun will man beispielsweise das, was auf dem Schild steht, in Textform haben. Mit Normcap markiert man einfach wie bei einem Screenshot-Tool den gewünschten Bereich und der erkannte Text wird in die Zwischenablage eingetragen.

Was aber, wenn man auch den Dateinamen in Textform haben will, den Okular oben anzeigt? Man markiert einfach mit NormCamp den betreffenden Bereich des laufenden Programms und auch in diesem Fall wird der erkannte Inhalt in Textform in der Zwischenablage gespeichert. Als Quelle dient also nicht eine bestimmte Datei, sondern das was der Bildschirm anzeigt.

Für die Texterkennung setzt NormCap auf Tesseract, was als ziemlich zuverlässig gilt. Bei meinen bisherigen Tests musste ich daher den erkannten Text auch wenig bis gar nicht verbessern. Vermutlich dürfte aber auch Tesseract in bestimmten Fällen an seine Grenzen stoßen.

20. September 2024

Mit Mozilla Social betreibt Mozilla seine eigene Instanz des dezentralen sozialen Netzwerks Mastodon. Über die geschlossene Betaphase wird es allerdings nicht mehr hinausgehen. Mozilla hat die Einstellung von Mozilla Social bekanntgegeben.

Was ist Mastodon?

Mastodon ist eine Microblogging-Plattform oder auch soziales Netzwerk, welches vor allem mit X, ehemals Twitter, verglichen werden kann, oder auch dem neuen Threads von Meta. Der große Vorteil von Mastodon ist seine dezentrale Natur: Das Netzwerk gehört keinem einzelnen Unternehmen. Stattdessen kann jeder seine eigene Instanz mit eigenen Moderationsregeln und eigener Oberfläche betreiben. Die dafür verwendete Software ist Open Source und frei verfügbar.

Was ist Mozilla Social?

Mit mozilla.social betreibt auch Mozilla eine Mastodon-Instanz. Diese war im März 2023 für Mozilla-Mitarbeiter online gegangen, seit Mai 2023 konnte man sich auf die Warteliste für einen geschlossenen Betatest setzen lassen. Ursprünglich hatte Mozilla große Pläne für Mastodon. So wurde zunächst nicht nur eine modifizierte Version von Mastodon mit ebenfalls angepasster Elk-Oberfläche eingesetzt, welche ein paar Dinge anders als andere Instanzen machte, auch investierte Mozilla in die Mastodon-App Mammoth für iOS und für Android sowie iOS waren sogar eigene Apps in Entwicklung.

Das langsame Ende von Mozilla Social – mit zwischenzeitlicher Hoffnung

Die Dinge änderten sich schlagartig im Februar 2024, als Laura Chambers neue CEO von Mozilla wurde. Das Zurückfahren der Investitionen in Mozilla Social zählte praktisch zu ihren ersten Amtshandlungen. Die Entwicklung der eigenen Apps wurden eingestellt und der Betrieb der Mastodon-Instanz auf den minimalen Wartungsaufwand zurückgefahren. Eigene Anpassungen wurden rückgängig gemacht und Elk zugunsten der Standard-Oberfläche wieder gestrichen. Für die Mastodon-Instanz gab es seit dem lediglich die regulären Updates der Mastodon-Software.

Im April 2024 kam noch einmal kurz Hoffnung auf. Denn die zunächst eingestellte und unter anderem Namen privat weiterentwickelte Android-App wurde doch wieder als Mozilla-Produkt weiterentwickelt. Außerdem startete die Entwicklung einer Mastodon-Erweiterung für Firefox und Chrome. Ende Mai 2024 wurden hier aber schon wieder alle Aktivitäten eingestellt, einen Monat später war auch für Android-App endgültig Schluss.

Offizielle Einstellung von Mozilla Social

Nachdem es dann in den letzten Monaten auffällig still um Mozilla Social wurde und auch nichts in Richtung überfällige Öffnung der Mastodon-Instanz für alle Nutzer zu hören war, folgte vor wenigen Tagen die offizielle Ankündigung dessen, was man bereits ahnen konnte: Mozilla Social wird eingestellt. Am 17. Dezember 2024 ist Schluss. Nutzer der Mastodon-Instanz mozilla.social müssen bis dahin ihre Daten gesichert haben, ansonsten verlieren sie den Zugriff.

Der Beitrag Mastodon-Instanz Mozilla Social wird eingestellt erschien zuerst auf soeren-hentzschel.at.

19. September 2024

Mozilla hatte Anfang September offizell angekündigt, die Unterstützung von Firefox für die veralteten Betriebssysteme Windows 7, Windows 8, macOS 10.12, macOS 10.13 sowie macOS 10.14 bis März 2025 zu verlängern. Nun ist klar: Für den Mail-Client Thunderbird gilt dies nicht.

Worüber ich bereits im Juli berichtete, hat Mozilla Anfang September offiziell gemacht: Die veralteten Betriebssysteme Windows 7, Windows 8, macOS 10.12, macOS 10.13 sowie macOS 10.14 werden bis März 2025 weiter unterstützt. Dies geschieht durch eine Verlängerung der Lebenszeit von Firefox ESR 115.

Wie seitens der MZLA Technologies Corporation nun angekündigt wurde, gilt dies nicht für Thunderbird. Zwar behält man sich noch die theoretische Möglichkeit vor, ein weiteres Thunderbird 115.15.x-Update zu veröffentlichen, aber über Thunderbird 115.15 wird es nicht hinaus gehen. Das bedeutet: Die Unterstützung für die oben genannten Betriebssysteme gilt für Thunderbird damit offiziell und ab sofort als eingestellt.

Begründet wird dies einerseits mit den geringeren personellen Ressourcen, die das Thunderbird-Team im Vergleich zu Firefox hat. Zum anderen liegt der Anteil der Thunderbird-Nutzer mit Windows 7 oder Windows 8 nicht wie bei Firefox bei immer noch 10,5 Prozent, sondern „nur“ noch bei ca. 6 Prozent. Und das bei einer ohnehin sehr viel kleineren Nutzerbasis als Firefox sie hat.

Die Downloadseite wird vorerst weiterhin den Download von Thunderbird 115 für Nutzer von Windows 7 oder Windows 8 anbieten. Dies wird sich aber ändern, sobald zukünftige Sicherheits-Updates, die für Thunderbird relevant sind, nur noch für Thunderbird 128 und höher bereitgestellt werden.

Die alten macOS-Betriebssysteme werden in der Ankündigung weder explizit erwähnt noch gibt es für diese eine separate Download-Option auf der Thunderbird-Website. Deren Nutzeranteil dürfte daher als verschwindend gering anzusehen sein.

Der Beitrag Thunderbird: Unterstützung für veraltete Betriebssysteme wird nicht verlängert erschien zuerst auf soeren-hentzschel.at.

18. September 2024

Die MZLA Technologies Corporation hat mit Thunderbird 128.2.1 ein Update für seinen Open Source E-Mail-Client veröffentlicht. Kurz darauf erschien Thunderbird 128.2.2.

Neuerungen von Thunderbird 128.2.1 und Thunderbird 128.2.2

Mit dem Update auf Thunderbird 128.2.1 hat die MZLA Technologies Corporation ein Update für seinen Open Source E-Mail-Client veröffentlicht. Das Update bringt mehrere Korrekturen für die Versionsreihe 128, welche sich in den Release Notes (engl.) nachlesen lassen. Das Update auf Thunderbird 128.2.2 bringt weitere Verbesserungen, welche die Release Notes (engl.) auflisten.

Update: Mittlerweile ist auch Thunderbird 128.2.3 erschienen und macht eine Änderung des Updates auf Thunderbird 128.2.2 rückgängig.

Der Beitrag Thunderbird 128.2.1 und 128.2.2 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

17. September 2024

Mozilla hat Firefox 130.0.1 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion.

Download Mozilla Firefox 130.0.1

Ein Fehler wurde behoben, der verursachte, dass AVIF-Bilder nur schwarz dargestellt worden sind, wenn Firefox mit GCC kompiliert worden ist. Dies betrifft Firefox unter Linux aus Paketverwaltungen, die nicht von Mozilla verwaltet werden. Der von Mozilla kompilierte Firefox war von diesem Fehler nicht betroffen.

Ein sogenannter Deadlock wurde behoben, der bei Ausführung des Firefox-Profilers aufgetreten ist, wenn eine aktuelle Windows 11 Insider Preview genutzt worden ist. Stabile Windows-Versionen waren von diesem Problem nicht betroffen, hätten es aber potenziell in der Zukunft sein können.

Firefox in der Saraiki-Sprache hat Texte mancher Oberflächen-Elemente fälschlicherweise von links nach rechts statt von rechts nach links geschrieben.

Die UserMessaging-Unternehmensrichtlinie kann jetzt auch zur Deaktivierung von „Firefox Labs“ genutzt werden, einem neuen Abschnitt in den Firefox-Einstellungen seit Firefox 130, um zukünftige Features vorab aktivieren zu können.

Den Buttons im Dialog zur Personalisierung der Pocket-Empfehlungen auf der Firefox-Startseite konnte direkt nach dem Browserstart das Styling fehlen. Hierbei handelt es sich um ein neues Feature von Firefox 130, welches derzeit schrittweise in den USA und Kanada ausgerollt wird.

Dazu kommt noch eine Hand voll Änderungen in Zusammenhang mit der KI-Generierung von Alternativtexten für Bilder in PDF-Dateien, einem weiteren neuen Feature von Firefox 130, welches derzeit schrittweise ausgerollt wird.

Der Beitrag Mozilla veröffentlicht Firefox 130.0.1 erschien zuerst auf soeren-hentzschel.at.

16. September 2024

hinweis

Ananke ist eines der bekannteren Themes (veröffentlicht unter der MIT-Lizenz) für den statischen Website-Generator Hugo. Für dieses Theme wird nun ein neuer Betreuer gesucht.

Wer also Lust hat das Projekt zu übernehmen, kann in dem genannten Repository ein Issue erstellen um sein Interesse bekunden.

Ich habe selbst nichts mit Ananke zu tun, da ich ein eigenes Theme nutze. Es wäre aber schade, wenn dieses Theme verschwinden würde.

In meinem heutigen Beitrag kommentiere ich den 2024 State of Open Source Report und vergleiche die enthaltenen Ergebnisse mit meinen persönlichen Erfahrungen.

Der 2024 State of Open Source Report (im Folgenden auch als Bericht oder Report bezeichnet) wurde von der Firma OpenLogic in Zusammenarbeit mit der Open Source Initiative (OSI) und der Eclipse Foundation erstellt. Der Bericht kann hier als PDF kostenlos heruntergeladen werden (der Haken für den Empfang von Kommunikation muss nicht gesetzt werden). Ich werde in diesem Text häufig auf den Bericht als Quelle verweisen, sodass ich euch empfehle, den Report ebenfalls verfügbar und im besten Fall gelesen zu haben. Seitenangaben beziehen sich auf das PDF mit dem Bericht.

Transparenzhinweis: Ich arbeite als Technical Account Manager für die Firma Red Hat. Meine Arbeit beeinflusst meinen Blick auf den Bericht. Dieser Kommentar stellt ausschließlich meine persönliche Sicht dar.

Informationen zum Bericht

Im Zeitraum vom 10. Oktober bis 8. November 2023 wurde weltweit eine anonyme Umfrage durchgeführt, welche insgesamt 2046 Antworten erhielt (siehe S. 4-6). Es findet sich darin kein Hinweis, ob die Umfrage repräsentativ ist. Es werden jedoch Angaben darüber gemacht, aus welcher Weltregion, Unternehmensgröße und Job-Rolle die Antworten stammen, um diese einordnen zu können.

Nutzung und Verbreitung von Open Source in Unternehmen

Es freut mich zu lesen, dass 95 Prozent der Antworten belegen, dass der Anteil an Open Source in den an der Umfrage teilnehmenden Unternehmen gestiegen (67,57 %) oder gleichgeblieben (27 %) ist (siehe S. 7). Auffällig ist allerdings auch, dass im Mittleren Osten 22,22% angaben, dass der Einsatz von Open Source zurückgegangen ist. Unternehmen, die gar keine Open-Source-Software einsetzen, haben vermutlich nicht an der Umfrage teilgenommen. Der Bericht macht dazu keine Aussage.

Auf Seite 8 findet sich die Aussage, dass 40 % aus der C-Level-Abteilung (z.B. CEO, CTO, CIO, CFO, etc.) angegeben haben, dass der Anteil an Open Source gleichgeblieben ist, während über 60% der Teilnehmer aus technischen Rollen eine Zunahme von Open Source sehen. Laut Bericht deutet dies auf eine mögliche Entfernung bzw. Trennung der Führung von der Basis hin. Dieser Ansicht mag ich mich nicht anschließen, da immerhin 58,46% der Führungskräfte ebenfalls eine Zunahme von Open Source in ihren Unternehmen sehen; das ist von den 60% der technischen Rollen doch nun wirklich nicht weit weg.

Interessant finde ich die genannten Gründe für den Einsatz von Open Source in Unternehmen (siehe S. 9-10). Ein wenig betrübt es mich, dass knapp 37 % „Keine Lizenzkosten“ und „Kostenminimierung“ als wichtigstes Argument für den Einsatz von Open Source nannten; hat Open Source in meinen Augen doch so viel mehr zu bieten, während sich das Ziel der Kostenminimierung nicht in jedem Fall erreichen lässt.

Meiner persönlichen Erfahrung nach verschieben sich die Aufwände in vielen Fällen lediglich. So stellten einige Organisationen fest, dass der Einsatz kostenlos verfügbarer Open-Source-Software mit einem höheren Personalbedarf bzw. einem erhöhten Aufwand für Wissensaufbau und Fehleranalysekompetenz einhergeht. Hier finden sich zum Teil die Kosten wieder, die man zuvor für Lizenzen und externen Support aufgewendet hat. Es gibt hier keine pauschal gültige Empfehlung. Jedes Unternehmen muss für sich selbst bewerten, ob es das erforderliche Personal selbst aufbauen bzw. einstellen kann oder ob der Einkauf externer Unterstützung in Zeiten von Fachkräftemangel nicht doch günstiger ist.

Macht man sich von externem Wissen abhängig, läuft dies dem Ziel entgegen, sich mit Open Source unabhängiger von einzelnen Herstellern machen zu wollen. Hier ist darauf zu achten, wie viel Auswahl an Anbietern am Markt besteht.

Ich nehme allerdings ebenfalls wahr, dass die wirtschaftliche Situation in vielen Unternehmen angespannt ist und kann das Ziel, Kosten zu reduzieren, nachvollziehen. Ich hoffe darauf, dass Unternehmen, die Open Source zur Kostensenkung einführen, auch die weiteren Vorteile, wie z.B. die Vermeidung von Vendor Lock-ins sowie offene Standards und Interoperabilität erkennen und zu schätzen lernen. Die zuletzt genannten Punkte sind immerhin 21 % der Befragten heute schon wichtig.

Herausforderungen beim Einsatz von Open Source

Wie bereits im vorangegangenen Abschnitt erwähnt, ist für den Einsatz von Open Source die Verfügbarkeit des notwendigen Wissens und entsprechende Fertigkeiten notwendig. Immerhin 38 % der befragten Unternehmen sehen es als eine Herausforderung an, das notwendige Wissen und die Fähigkeiten zum effizienten Einsatz von Open Source im Unternehmen verfügbar zu machen (S. 13). Dabei versuchen sie, dies auf unterschiedlichen Wegen verfügbar zu machen. Das Diagramm auf Seite 14 zeigt, dass die Mehrheit mit 45% auf Training des eigenen Personals setzt. Weitere 38% versuchen, Personal mit dem benötigten Wissen einzustellen.

Ich arbeite aktuell selbst in einem Unternehmen, in dem die Fort- und Weiterbildung der eigenen Mitarbeiter einen hohen Stellenwert besitzt. Ich freue mich sehr, dass mein Unternehmen mich aktiv dabei unterstützt, mein Wissen aktuell zu halten und in verschiedenen Bereichen auszubauen.

Ohne einen Beleg zur Hand zu haben, meine ich mich zu erinnern, dass die Qualifizierung bestehenden Personals für ein Unternehmen häufig günstiger ist, als neues Personal einstellen und einarbeiten zu müssen. Falls ihr dazu eine gute Quelle habt, teilt sie mir doch bitte in den Kommentaren mit.

Updates und Patches

Auf Seite 13 des Berichts findet sich die Aussage, dass es für 40 % aller Umfrageteilnehmer eine große bis sehr große Herausforderung darstellt, die Systeme und Anwendungen auf einem aktuellen Stand (Patchlevel) zu halten.

Nach meiner Erfahrung zählen ein geringer Automatisierungsgrad, unzureichende Testprozeduren und eine zu starre Aufbauorganisation mit komplizierten und langwierigen Abstimmungsprozessen zu den größten Problemen in diesem Bereich. Wenn Wartungsfenster zur Installation von (Sicherheits-)Updates mit 3-6 Monaten Vorlauf angekündigt und geplant werden müssen und es keinen Prozess für schnelle Notfallupdates gibt, kann man halt nicht innerhalb von 72 Stunden reagieren und Schwachstellen schließen. Wenn die Kommunikation zwischen Betriebs- und Anwendungs-Team rein über Ticketsystem läuft, hat man zwar einen sauberen Prozessablauf mit Genehmigungs- und Prüfschritten; werden die Schritte jedoch alle manuell ausgeführt, darf man sich nicht wundern, wenn Updates vier Tage statt vier Stunden brauchen.

Noch immer begegnen mir im Gespräch Szenarien, wo Anwendungsteams nicht über Testsysteme und Testpläne verfügen. Die Folgen eines Updates/Patches lassen sich nur direkt in Produktionsumgebung prüfen. Bei Fehlern kommt es dann sofort zu einer Beeinträchtigung des Dienstes und der Stresslevel steigt. Wo es bereits an der Fähigkeit mangelt, Änderungen zeitnah zu verifizieren, fehlt oft auch die Möglichkeit, auf einen zuletzt als funktionierend bekannten Stand zurückzurollen. Hier bleibt nur der Weg voran unter Einsatz aller verfügbaren Ressourcen, bis das Problem behoben oder das Unternehmen insolvent ist.

Nicht immer ist es ganz so dramatisch. Häufig löst mangelnde Automation einen langwierigen Abstimmungsprozess aus. Viele Personen müssen Zeit einplanen, um diverse Schritte im Prozessablauf manuell auszuführen, zu testen und zu dokumentieren. Schnell sind 3,6 kg Excel-Dateien erstellt, das Update aber immer noch nicht abgeschlossen.

Ich erinnere mich an die schöne Zeit zwischen 2011 und 2014. Unser damaliger stellvertretender Abteilungsleiter hatte die Idee, DevOps auszuprobieren. Dazu wurden Teams aus Entwicklern und Systemadministratoren gebildet, die nun gemeinsam für den Betrieb und die Verfügbarkeit bestimmter Anwendungen verantwortlich waren. Statt den auf Papier dokumentierten Verantwortungsübergängen und dem daraus häufig folgenden Hin- und Herschiebens des schwarzen Peters saßen wir jetzt gemeinsam in einem Boot und hatten gemeinsame Ziele. Wir lernten dabei die Sicht- und Arbeitsweise der jeweils anderen Job-Rolle kennen und zu verstehen. Und im gemeinsamen Dialog, gelang es uns Automationsprozesse zu entwickeln, um Updates schneller und erfolgreicher durchführen zu können. Leider überlebte dieses Modell die Zeit nicht. Heute ist mir bekannt, dass mit dem Wechsel dieses Modells auch die alten Probleme zurückkehrten und deutlich weniger Updates durchgeführt werden.

Oft liegt die Verantwortung für die Installation von Updates/Patches beim Betrieb. Jedoch ist nur das Anwendungsteam in der Lage, die korrekte Funktionsfähigkeit der Anwendung/des Dienstes zu beurteilen. Auch wenn manche Abteilungsleiter es nicht gerne hören, es geht am besten gemeinsam, mit kurzen Abstimmungswegen über Team- und Abteilungsgrenzen hinweg.

Der zweite Schlüssel zum Erfolg ist Automation. Lasst den Automaten die einzelnen Prozessschritte ausführen, welche in der Regel wie folgt aussehen:

  1. Anwendung bzw. Dienste stoppen
  2. Updates/Patches installieren
  3. System neu starten
  4. Anwendung bzw. Dienste starten
  5. Anwendung/Dienst auf korrekte Ausführung testen
  6. Bei Fehlschlag –> Rollback bzw. bei Erfolg –> Update erfolgreich

Zeit und Energie, die hier investiert werden, zahlen sich in aktuellen Systemen mit weniger Sicherheitslücken aus. Schafft einen Raum, in dem sich eure Experten aus Systemadministration und Anwendungsentwicklung austauschen und abstimmen können.

Selbstverständlich haben die Qualität der vom Hersteller bereitgestellten Updates ebenfalls einen großen Einfluss auf den Erfolg von Patchinstallationen. Sollte es hier wiederholt Probleme geben und keine Besserung in Sicht sein, ist ggf. ein Wechsel des Anbieters in Erwägung zu ziehen. Doch bevor ihr euch Hals über Kopf in die Migration stürzt, denkt daran, dass das Gras auf der anderen Wiese stets grüner wirkt, als es ist. Es geht nicht ohne ausführliche Tests.

Ich wünsche allen, die sich für Updates und Patches Nächte und Wochenenden um die Ohren schlagen müssen, dass sich die Situation für euch bessert und sich dies im nächsten Open Source Statusbericht ablesen lässt.

Wartung von End-of-Life Versionen

Manche nennen es den Giftschrank, andere die Schmuddelecke. Gemeint sind damit Betriebssystem-Releases und Anwendungen, die das Ende ihres Lebenszyklus erreicht oder schon überschritten haben. Laut Seite 13 des Berichts ist dies für 42 % der Umfrageteilnehmer ein Thema.

Die Gründe warum diese Systeme noch existieren, lauten häufig sehr ähnlich. Fast immer läuft eine geschäftskritische Anwendung darauf,

  • Von der im Unternehmen niemand mehr weiß, wie sie funktioniert, um sie auf ein neues Betriebssystem zu migrieren
  • Für deren Migration keine Ressourcen verfügbar sind
  • Mit der komplizierte und langwierige Abstimmungsprozesse zur Migration verbunden sind; niemand will das Ding anfassen
  • Die für keine aktuellere Betriebssystem-Version zertifiziert ist

Im hier kommentierten Bericht wird auf Seite 15 ausgewiesen, dass 22 % der Befragten noch CentOS einsetzten, dessen Release 7 seit dem 30. Juni 2024 End-of-Life (EoL) ist. In der Umfrage kommt es sogar auf Platz 3 der am häufigsten eingesetzten Distributionen.

Egal ob man nun EoL-Betriebssysteme oder EoL-Laufzeitumgebungen betrachtet, die Lösung ist stets dieselbe. Die dazugehörige Anwendung muss zuerst auf einer neueren und unterstützten Version laufen, bevor die alte abgeschaltet werden kann. Dazu müssen Teams in der Lage sein, Anwendungen neu deployen und das Deployment testen zu können. Auch hier helfen Testsysteme, -prozeduren und Automation. Auch hierbei ist es unerlässlich, dass Betrieb und Anwendungsteams zusammenarbeiten, um den Erfolg der Migration sicherzustellen. Je schneller Feedback-Loops und Abstimmungsprozesse sind, desto schneller sind notwendige Prozeduren etabliert. Die Zeit für Releasewechsel lässt sich so signifikant verkürzen. Ressourcen sind damit schneller frei und können für innovative Entwicklungsprojekte genutzt werden.

Leider erlebe ich häufig, dass Abteilungen nur in ihrem eigenen Bereich nach Lösungen suchen und den Kontakt zu anderen Abteilungen meiden, ja beinahe scheuen. Doch ist dies kein technisches Problem. Es ist eine organisatorische Herausforderung, die angegangen werden muss. Es liegt doch im Interesse aller Beteiligten, regelmäßig wiederkehrende Releasewechsel schnell und störungsarm abwickeln zu können.

In meinem beruflichen Alltag erlebe ich häufig, dass In-Place-Upgrades als Allheilmittel angesehen werden. Ich hingegen bin kein großer Freund davon. Sie sind der vermeintlich einfache Weg, doch führen sie zur dunklen Seite der Macht. Ein In-Place-Upgrade aktualisiert das Betriebssystem inkl. der installierten Bibliotheken und Laufzeitumgebungen. Es befreit nicht von der obligatorischen Aufgabe, die darauf laufenden Anwendungen im Anschluss zu testen. Stellt man dabei Fehler fest, gibt es häufig kein Zurück mehr. Eine Ausnahme bilden hier virtuelle Umgebungen, bei denen man zuvor einen Snapshot der virtuellen Maschine erstellen kann.

Wer eine Anwendung immer nur mit In-Place-Upgrades von einem Release auf das nächste rettet, verliert mit einer größeren Wahrscheinlichkeit die Fähigkeit, die Anwendung sauber neu zu deployen. Man tut sich hiermit keinen Gefallen.

Ich bin der Überzeugung, dass Organisationen in der Lage sein müssen, ihre geschäftskritischen Anwendungen mit einem definierten Zustand automatisiert ausrollen zu können. Dies unterstützt Releasewechsel, erleichtert den Auf- und Abbau von Testumgebungen sowie die Verifizierung von Fehlern und das Nachstellen von Bugs. Anwendungen können so auch deutlich leichter und schneller gegen neuen Bibliotheken und Laufzeitumgebungen getestet werden. Es lohnt sich, Zeit zum Schärfen der Axt zu investieren, bevor man mit dem Fällen der Bäume beginnt. Oder anders ausgedrückt, wer keine Zeit hat, den Zaun zu reparieren, weil er mit Kühe einfangen beschäftigt ist, wird nie zum Melken kommen.

Open Source Distributionen

In dieser Kategorie auf Seite 15 listet der Bericht die Linux-Distributionen auf, die von den Umfrageteilnehmern verwendet werden. Ubuntu führt diese Liste an und liegt mit 46 % vor Debian mit 23%. Platz 3 geht an CentOS mit 22%. Den undankbaren vierten Platz belegt Amazon Linux mit knapp 20%. Die noch recht neue Distribution CentOS Stream findet sich auf Platz 13 mit 9,5%.

Ich habe diese Werte mit denen aus dem State of Open Source Report von 2023 verglichen. Ubuntu hat im Vergleich um 27 % zugelegt (Platz 1 mit 29% in 2023). Debian kam 2023 mit 16,63% auf Platz 6 hinter CentOS Stream mit 16,74%. Die Plätze 2 und 3 wurden 2023 von Alpine Linux (21,1%) und Oracle Linux (19,72%) belegt. CentOS kam damals mit 15% auf Platz 8.

Der Bericht von 2024 spekuliert, dass Red Hat’s Änderung beim Zugriff auf den RHEL Quelltext und das EoL von CentOS mitverantwortlich für diese Veränderungen sind, kann jedoch keine klaren Belege dafür liefern. Laut Bericht sind die Linux Wars noch nicht entschieden und wir können auf den kommenden Bericht gespannt sein.

Es hat mich überrascht, dass RHEL und SLES es gar nicht in das Ranking geschafft haben. Unter Berücksichtigung, dass die Kostenreduktion in diesem Bericht die Hauptmotivation für den Einsatz von Open Source darstellt, lässt sich ggf. erklären, warum Distributionen gerade nicht hoch im Kurs stehen, die kostenpflichtige Support-Subskriptionen für den produktiven Einsatz voraussetzen.

Ich freue mich schon darauf, herauszufinden, wie dieses Ranking im nächsten Bericht aussieht.

Cloud-Native Open Source Technologies

Das Diagramm auf Seite 17 zeigt das Ranking der wichtigsten Cloud-Native Open Source Technologies für die Umfrageteilnehmer. Platz 1 wird von Docker mit 44,6 % eingenommen, gefolgt von Kubernetes mit 33,61 %.

Der große Vorsprung von Docker vor Podman mit 16,6 % hat mich ein wenig überrascht. Ich hätte den Abstand nicht als so groß eingeschätzt. Hier interessiert mich, welche Vorteile die Nutzer in Docker gegenüber Podman sehen. Leider macht der Bericht hierzu keine Aussage. Ich selbst nutze Podman unter Debian, Fedora und RHEL. In Debian stehen ungünstigerweise nur ältere Podman Releases zur Verfügung, denen wichtige Funktionen fehlen. Dies ist in meinen Augen eine Erklärung, warum Podman gerade in diesen Distributionen wenig genutzt wird. Dies ist allerdings nur wilde Spekulation meinerseits. Ich kann dies nicht belegen.

Für mich ebenfalls unerwartet ist OpenStack mit knapp 18 % sowie OKD und Rancher mit jeweils unter 10%. In diesem Bereich leide ich vermutlich an Betriebsblindheit. Wenn man bei Red Hat arbeitet, kann man leicht den Eindruck gewinnen, dass die ganze Welt nur noch OpenShift macht.

Ich freue mich darauf, diese Kategorie über die nächsten Jahre zu beobachten und zu sehen, wie sich Podman entwickelt, wofür ich eine gewisse Vorliebe habe.

Automations- und Konfigurations-Management

Wer die Kategorie Ansible in diesem Blog kennt, weiß bereits, dass ich mich gerne mit Ansible beschäftige. So freut es mich zu sehen, dass Ansible im betrachteten Bericht auf Seite 25 Platz 1 mit 30% belegt. Überraschend finde ich hingegen, dass 27% angaben, keinerlei Open Source Automations- bzw. Konfigurationsmanagement zu verwenden. Der Bericht führt dies auf Antworten aus jungen Unternehmen zurück, die (noch) keine Notwendigkeit für Automation sehen. Ich möchte diesen Unternehmen empfehlen, frühzeitig eine Automation First Philosophie zu entwickeln, da ich überzeugt bin, dass sich ein konsequenter Einsatz von Automations- und Konfigurationsmanagementwerkzeugen schnell auszahlt.

Unter den Systemadministratoren liegen Ansible (40 %) und Puppet (36%) als beliebteste Werkzeuge nah beieinander. Es ist immer gut, Auswahl und Wettbewerb zu haben. Ich freue mich über den Anteil von Puppet, gerade weil ich in den Nachrichten nur noch wenig Notiz davon nehme.

Salt liegt bei unter 10 % und ich habe auch schon längere Zeit nichts mehr von diesem Projekt gehört. Schade, die Architektur von Salt finde ich ganz interessant.

Im aktuellen Bericht nutzen knapp 23 % Terraform und der Lizenzwechsel zeigt noch keine große Abwanderung zu dessen Fork OpenTofu. Da die Datenerhebung jedoch Ende 2023 durchgeführt wurde, kann der Bericht eine etwaige Nutzerabwanderung noch nicht darstellen. In 2024 hat IBM die Übernahme von Hashi Corp bekannt gegeben. Ich bin gespannt, wie es mit den Produkten und deren Nutzung weitergeht. Hoffentlich gibt der nächste Bericht erste Einblicke.

Fazit

Durch die Arbeit in einem großen IT-Unternehmen mit einem starken eigenen Portfolio fällt es leicht, eine Betriebsblindheit für die Entwicklungen außerhalb des eigenen Kosmos zu entwickeln. Berichte wie der 2024 State of the Open Source Report helfen, der Betriebsblindheit entgegenzuwirken.

Ich habe nicht alle Kategorien des aktuellen Berichts im Detail betrachtet, sondern mir diejenigen herausgepickt, die mein persönliches Interesse ansprechen. Darüber in diesem Blog zu schreiben, hilft mir, über den Bericht und meine Erfahrungen zu reflektieren. Und wenn euch dieser Kommentar ebenfalls gefällt, freue ich mich umso mehr.

15. September 2024

Ich habe zu diesem Thema schon einmal einen Artikel mit dem Kommandozeilen Tool ffmpeg geschrieben „Audiospuren aus Videodateien entfernen und hinzufügen – ffmpeg“ , aber für mal eben schnell gibt es schon lange eine schöne GUI basierte Variante mit dem super Tool LossLessCut, das für Linux, Windows und Mac verfügbar ist.

Am Ende des Artikels gibt es noch mehr Verweise auf ffmpeg und Audio/ Videomanipulation hier auf diesem Blog.

In aller Kürze: LossLessCut ist ein Tool mit dem Videodateien bearbeitet werden können, ohne dass Video oder Audio neu berechnet werden müssen. Es werden also lediglich vorhandene Spuren bearbeitet bzw geschnitten und dann wird das Ergebnis innerhalb von Sekunden gespeichert.

Zusätzlich kann mit LossLessCut auch der Video Container wie z.B. MP4 oder MKV bearbeitet werden, so dass Audio oder Videospuren herausgenommen oder hinzugefügt werden können.

Praktische Beispiele:

  • Du hast zweimal das selbe Video, nur einmal in deutsch und einmal in englisch. Aber du hättest gerne nur EIN Video, das beide Sprachen beinhaltet. Also zweisprachig, die du dann z.B. in VLC mit dem Shortcut „b“ umschalten kannst.
  • Du hast ein Video, dessen Audioqualität komplett unterirdisch ist (viel viel viiiiiieel zu leise, Störungen, Rauschen) und würdest gerne das Audio mit deinen tollen Tools bearbeiten und es danach wieder mit dem Video zusammen führen.

Einfacher als mit LossLessCut geht es nun wirklich nicht mehr.

Und so geht es am Beispiel des zweisprachigen Videos (Screenshots weiter unten) :

  1. Screenshot 1: Video in LossLessCut reinladen
  2. oben links auf Tracks z.B. Tracks (2/2) klicken.
  3. Dann öffnet sich eine Übersicht mit allen Audio und Videospuren, die in diesem Container enthalten sind.
  4. Screenshot 2: Indem du auf die Symbole (1) klickst, bestimmst du, ob sie mit exportiert werden sollen (grün) oder nicht mit in den neuen Container kopiert werden sollen (rot)
  5. Wenn du darunter auf „Include more tracks from other file“ (2) klickst, dann kannst du eine weitere Videodatei auswählen, die dann mit in diese Übersicht kommt.
  6. Screenshot 3: Die Spuren des neuen Videos (1) werden dann aufgelistet. Mit einem Klick auf das Videosymbol links (2) deaktivierst du die reine Videospur
  7. Und mit Klick auf das X Symbol (3) rechts oben schließt du diese Übersicht und die Einstellungen werden übernommen.
  8. Screenshot 4: Kurz oben links (1) prüfen, ob jetzt auch 3 Tracks im Container und dann unten rechts (2) auf „Export“ klicken.
  9. Screenshot 5: Es öffnet sich dann das Export Fenster mit diversen Exporteinstellungen (1) und wohin die zu exportierende Datei gespeichert werden soll und dann kannst du Export (2) klicken.
  10. Je nach Größe der Datei und Schnelligkeit deines Datenträgers dauert der Export zwischen ein paar Sekunden und ein paar Sekunden mehr.

So können aus 2 Videos mit der Länge von 1.3GB , als insgesamt 2.6GB ein Video mit 1.5GB gemacht werden. Also eine Ersparnis von 1.1GB.

Und beim Anschauen kann dann einfach mal schnell (bei VLC mit b) zwischen den Sprachen hin und her geschaltet werden.

Viel Spaß !

Screenshot 1

Screenshot 2

Screenshot 3

Screenshot 4

Screenshot 5

Mehr zu diesen Themen

ffmpeg

Views: 351

The post Audiospuren in MP4 Dateien managen mit LossLessCut first appeared on Dem hoergen Blog.

Der Editor Helix bietet von Haus aus keine Rechtschreibprüfung. Somit ist eine Nutzung des Editors in manchen Fällen somit mit Vorsicht zu genießen. Daher, aber auch aus anderen Gründen, nutze ich zum Erstellen der Artikel die ich auf fryboyter.de veröffentliche in der Regel VS Code. Für die Rechtschreibprüfung nutze ich LanguageTool für das es ein entsprechendes Plugin gibt. Nun habe ich mir die Frage gestellt, ob es nicht doch eine Möglichkeit gibt, LanguageTool auch mit Helix zu nutzen.

Ja, gibt es. Hierfür muss man als erstes https://github.com/valentjn/ltex-ls installieren. Bei Arch Linux findet man es in Form von ltex-ls-bin im AUR. Nun erstellt man unter ~/.config/helix/ die Datei languages.toml mit folgendem Inhalt (den Pfad zu ltex-ls muss man, je nach Distribution und Art der Installation eventuell anpassen).

1[[language]]
2name = "markdown"
3language-servers = [{ name = "ltex"}]
4file-types = ["md", "txt"]
5
6[language-server.ltex]
7command = "/usr/bin/ltex-ls"
8config = { ltex.language = "de-DE" }

Damit werden Markdown- sowie Text-Dateien auf Fehler in der deutschen Sprache geprüft. Will man eine andere Sprache als Deutsch verwenden, kann man die letzte Zeile entsprechend. Unter https://valentjn.github.io/ltex/settings.html#ltexlanguage findet man eine Auflistung der unterstützten Sprachen.

Allerdings hat diese Lösung einen Nachteil. Unter VS Code hebt LanguageTool fehlerhafte Wörter hervor und bietet Korrekturmöglichkeiten an. Mit Helix werden fehlerhafte Wörter nur hervorgehoben, indem sie unterstrich werden. Eine Korrektur muss also weiterhin von Nutzer selbst erfolgen.

12. September 2024

Aufgrund des Artikels https://www.trommelspeicher.de/blog/die-eigene-lesezeichenverwaltung und weil ich mir auch im Moment alternativen zu Wallabag ansehe, ist dieser Artikel entstanden.

Über die Jahre habe ich mir eine umfangreiche Lesezeichen-Sammlung erstellt. Bis eines Tages eine wichtige Seite nicht mehr über das Lesezeichen erreichbar war. Der Betreiber hatte die Seite gelöscht und aufgrund einer Nachfrage meinerseits hatte er auch keine Datensicherung mehr. Über https://web.archive.org konnte man ebenfalls keine gespeicherte Version aufrufen. Kurz gesagt, die Informationen sind verloren gegangen.

Damals habe ich mir daher eine eigene Wallabag-Instanz installiert. Damit lassen sich, zumindest die meisten, Seiten abspeichern und somit der Inhalt archivieren. Ich schreibe bewusst “die meisten”, da sich Seiten wie Codepen oder Reddit damit nicht speichern lassen. Vermutlich wegen JavaScript oder irgendwelcher Maßnahmen die es verhindern. In solch einem Fall wird daher ebenfalls nur ein Lesezeichen angelegt und der Inhalt wird nicht gespeichert.

Bis auf besagte Ausnahmen hat Wallabag die letzten Jahre gut funktioniert. Aber das Programm ist teilweise recht träge und die grafische Oberfläche könnte man auch verbessern. Mit Version 3.0 dürfte sich einiges an der aktuellen Situation ändern. Aber die Entwickler lassen sich bewusst Zeit (z. B. https://github.com/wallabag/wallabag/discussions/6177 oder https://github.com/wallabag/wallabag/discussions/6884). Und ja, ich finde das nicht schlecht. Also im Grunde wie damals, wenn jemand ID Software gefragt hat, wenn denn ein bestimmtes Spiel fertig ist, und die Standardantwort “wenn es fertig ist” gelautet hat.

Trotzdem habe ich mir in den letzten Tagen Alternativen angesehen, da ich Urlaub habe. Und bisher muss ich sagen, dass für mich Readeck einen sehr guten Eindruck macht. Hier mal ein paar Beispiele die ich nicht schlecht finde.

  • Das Tool ist mit Golang erstellt, sodass das Programm aus einer Datei besteht. Somit ist eine Installation sehr einfach.
  • Die grafische Oberfläche ist, verglichen mit Wallabag, meiner Meinung nach besser.
  • Ein Import aus einigen anderen Lösungen (wie Wallabag) ist vorhanden.
  • Ein Export von gespeicherten Seiten ist in Form von Epub-Dateien möglich.
  • Innerhalb der gespeicherten Artikel lässt sich ein festgelegter Text hervorheben. Ich bin mir nicht sicher ob Wallabag die auch unterstützt.

Wer also eine Lösung sucht, mit der sich Internetseiten komplett abspeichern lassen, bzw. wer eine Alternative zu Wallabag sucht, sollte sich daher Readeck ansehen.

Da ich auf die Lesezeichenverwaltung von trommelspeicher.de verwiesen habe, möchte ich noch anmerken, dass weder Wallabag noch Readesk die besseren Lösungen sind. Es kommt immer darauf an, was man erreichen will. Ich habe daher in Wallabag auch nur wirklich wichtige Seiten gespeichert und für den Rest Bookmarks erstellt. Nur werde ich nie wieder nur Bookmarks erstellen.

10. September 2024

Solo ist ein Ende des vergangenen Jahres vom Mozilla Innovation Studio angekündigter Website-Builder, der auf Künstliche Intelligenz (KI) und einen maximal einfachen Erstellungsprozess setzt. Nun steht Solo 1.2 bereit und bringt viele Neuerungen.

Im Rahmen der Innovation Week im Dezember 2023 hatte das Mozilla Innovation Studio Solo angekündigt. Dabei handelt es sich um einen sogenannten Website-Builder mit Fokus auf Selbständige, der auf generative Künstliche Intelligenz für einen maximal einfachen Erstellungsprozess setzt.

Jetzt Website-Builder Solo von Mozilla testen

Seit dem Start hat Mozilla einige Funktionen ergänzt. Jetzt hat Mozilla Solo 1.2 fertiggestellt.

In Textfeldern mit Formatierungen gibt es jetzt Funktionen für Rückgängig und Wiederherstellen. Eingebettete YouTube-Videos unterstützen benutzerdefinierte URL-Parameter, beispielsweise zur Angabe der Startzeit. Es gibt einen neuen FAQ-Abschnitt für Fragen und Antworten. Ein neuer Team-Abschnitt kann zur Präsentation von Teammitgliedern genutzt werden. Für den Einleitungs-Abschnitt wurde das Zeichenlimit erhöht.

Verbessert wurde das Erfassen von Daten von Facebook, Instagram und Thumbtack zur Generierung der Website. Thumbstack kann jetzt auch als Social Media Icon im Header und Footer hinzugefügt werden. Was Bildformate betrifft, werden jetzt auch WebP- sowie animierte GIF-Grafiken unterstützt.

Dazu kommen noch diverse Fehlerbehebungen und Performance-Verbesserungen.

Ebenfalls verbessert wurden die zwei Nebenprojekte von Solo: Ein Generator für Geschäftsideen sowie ein Generator für Geschäftsnamen.

Die Nutzung von Solo ist kostenlos. Geringe Kosten fallen höchstens bei Verwendung einer benutzerdefinierten Domain an. Als Nächstes stehen weitere Optionen zum Bearbeiten und Gestalten, ein Abschnitt für Kundenlogos, weitere Anpassungsoptionen für das Kontaktformular sowie eine neue Bibliothek zur Verwendung von Icons auf der Website auf der Roadmap.

Der Beitrag Website-Builder Solo von Mozilla: Version 1.2 fertiggestellt erschien zuerst auf soeren-hentzschel.at.

8. September 2024

Konfiguration

Bash kann mit vi Befehlen gesteuert werden. dazu muss lediglich entweder im Benutzerverzeichnis in die Datei .bashrc oder systemweit in die /etc/bash.basrc eine Zeile eingetragen werden

# Aktivieren des VI Modus -> Energie !
set -o vi

Konfiguration akvtieren

In der nächsten Session (z.B. neuer Login) oder durch das Ausführen des Befehls source ~/.bashrc oder source /etc/bash.basrc wird diese neue Einstellung aktiv. Alternativ kann statt dem Befehl source auch der Befehl exec benutzt werden. Dieser ersetzt die aktuelle Shell mit einer komplett neuen Shell. Die „alte“ Shell bleibt dann solange im Hintergrund, bis die neue Shell beendet wurde. Wie so eine Matrjoschka Puppe.

vi Modus Aktivieren

Der vi Modus wird aktiv, indem die ESC Taste gedrückt wird. Und „raus“ geht es wieder, indem i für Insert (Einfügen) gedrückt wird. Oder passiert automatisch, je nachdem welcher Befehl benutzt wurde, der dann automatisch in den INSERT oder den APPEND Modus wechselt. Also zurück in die alte Bash.

Das war schon alles. Aber hier noch zusätzlich ein paar nützliche Tastenkombination bei aktiviertem vi Modus ESC als Bonus:

Navigation

  • 0 oder ^^ springe an den Anfang der Zeile
  • $ springe an das Ende der Zeile
  • w springe zum nächsten Wort
  • b springe ein Wort zurück (back)
  • k gehe einen Eintrag zurück in der Bash History (analog die Pfeil runter Taste in der Bash)
  • l gehe einen Eintrag vorwärts in der Bash History (analog die Pfeil hoch Taste in der Bash)

Suche

  • f ZEICHEN sucht das nächste Vorkommen von ZEICHEN (ohne Eingabe des Leerzeichens!)
  • F ZEICHEN sucht das vorherige Vorkommen von ZEICHEN (ohne Eingabe des Leerzeichens!)
  • ; wiederholt die vorherige Suche. Vorwärts oder eben auch Rückwärts.

Editieren

  • x löscht das Zeichen unter dem Cursor
  • X löscht das Zeichen links vom Cursor
  • I springt an den Anfang der Zeile und wechselt zum INSERT Modus (und beendet den vi Modus)
  • A springt an das Ende der Zeile und wechselt in den APPEND Modus (und beendet den vi Modus)
  • cc löscht die komplette Zeile und wechselt in den INSERT Modus
  • C löscht den Rest der Zeile nach rechts und wechselt in den INSERT Modus
  • cw löscht ab der aktuellen Cursorposition bis zum Wortende und wechselt in den INSERT Modus
  • ciw löscht das Wort unter der aktuellen Cursorposition und wechselt in den INSERT Modus
  • ci3w löscht ab dem aktuellen Wort (inklusive) drei Wörter ab der aktuellen Cursorposition und wechselt in den INSERT Modus
  • ea springt zum Ende des aktuellen Wortes und wechselt in den APPEND Modus
  • r ersetzt exakt nur das Zeichen über dem Cursor (bleibt im vi Modus)
  • R wechselt in den Überschreibe Modus
  • ~ schaltet die Groß/Kleinschreibung des Zeichens über dem Cursor um
  • xp löscht das aktuelle Zeichen, rückt alle nachfolgenden Zeichen eines nach links und fügt das gelöschte Zeichen nach dem einen nachgerückten Zeichen wieder ein. Beispiel mit dem Cursor auf dem e wird aus heir wird hier

Löschen

  • dd oder D löscht die komplette Zeile
  • dw löscht ab der aktuellen Cursorpostion bis zum Wortende
  • bdw springt an den Anfang des Wortes und löscht dann das ganze Wort
  • bd4w springt an den Anfang des Wortes und löscht dann 4 ganze Wörter (Leerzeichen zählen als Wörter)
  • x löscht das Zeichen unter dem Cursor
  • X löscht das Zeichen links vom Cursor
  • cc löscht die komplette Zeile und wechselt in den INSERT Modus
  • C löscht den Rest der Zeile nach rechts und wechselt in den INSERT Modus
  • cw löscht ab der aktuellen Cursorposition bis zum Wortende und wechselt in den INSERT Modus
  • ciw löscht das Wort unter der aktuellen Cursorposition und wechselt in den INSERT Modus
  • ci3w löscht ab dem aktuellen Wort (inklusive) drei Wörter ab der aktuellen Cursorposition und wechselt in den INSERT Modus

Copy N Paste

  • y kopiert das aktuelle Wort unter dem Cursor
  • y3w kopiert ab der aktuellen Cursorposition 3 Wörter (Leerzeichen werden als Wörter gezählt)
  • by3w springt an den Wortanfang und kopiert ab der aktuellen Cursorposition 3 Wörter (Leerzeichen werden als Wörter gezählt)
  • Y kopiert alles von der aktuellen Position bis zum Zeilenende
  • p fügt das zuvor Kopierte ab der aktuellen Cursorposition ein
  • P fügt das zuvor Kopierte vor der aktuellen Cursorposition ein

Weitere hyperblog Artikel zum Thema

vim

bash

Views: 67

The post Bash mit vi (vim) Befehlen – vi Mode first appeared on Dem hoergen Blog.

Damit die Befehle verschiedener Terminal Sessions in der .bash_history gespeichert werden, muss Folgendes entweder in der user .bashrc (benutzerspezifisch) oder in der /etc/bash.bashrc(systemweit) eingetragen werden.

# avoid duplicates..
export HISTCONTROL=ignoredups:erasedups

# big big history
export HISTSIZE=100000
export HISTFILESIZE=100000

# append history entries..
shopt -s histappend

# After each command, save and reload history
export PROMPT_COMMAND="history -a; history -c; history -r; $PROMPT_COMMAND"

Weitere hyperblog Artikel zum Thema

bash

tmux

Views: 100

The post Bash history von allen Terminal Sessions speichern – Zum Beispiel tmux first appeared on Dem hoergen Blog.

Als mein Tuxedo AURA 15 Gen2 mit AMD Ryzen 7 5700U  Prozessor ein mechanisches Problem bekam und ich es zur Reparatur schicken musste, stand ich vor einem Dilemma: Was mache ich ohne mein gewohntes System?

Glücklicherweise habe ich die SSD M.2 aus dem Tuxedo ausgebaut und bin auf die Idee gekommen, diese am deutlich älteren Lenovo T480 mit WQHD-Display anzuschließen, das ich als Ersatzgerät nutze.

 

 

 

 

Von lewing@isc.tamu.edu Larry Ewing and The GIMP, Attribution, https://commons.wikimedia.org/w/index.php?curid=80930

 

 

Der große Test: Kann ich einfach die SSD über den USB3-Port an den Lenovo anschließen und booten? Immerhin sind die Unterschiede der Hardware nicht zu übersehen:

  • Der Tuxedo hat einen AMD Ryzen 7 5700U Prozessor, während der Lenovo mit einem Intel Core i5-8350U läuft.
  • Die Grafikkarten, die WiFi-Module und auch die Sound-Architektur sind unterschiedlich.

Und es funktioniert!

Trotz dieser Hardwareunterschiede bootete mein Debian Trixie auf dem Lenovo T480 ohne Probleme. Es war so, als ob das Betriebssystem gar nicht bemerkt hätte, dass es sich plötzlich in einer komplett anderen Umgebung befindet. WLAN, Grafik, Sound – alles funktionierte sofort und ohne zusätzliche Treiberinstallation oder Anpassungen.

Natürlich verstehe ich, dass das Konzept der Distribution hauptverantwortlich ist, denn die notwendigen Module sind immer mit an Bord, wenn man nicht selbst eingreift ...

Warum ich Linux (noch mehr) liebe

Dieser Moment hat mir erneut gezeigt, warum ich Linux und freie Open-Source-Software so liebe:

Sie ist flexibel, anpassungsfähig und läuft auf verschiedenster Hardware zuverlässig. Wo bei anderen Betriebssystemen oft lange Treiberinstallationen und nervige Konfigurationen nötig sind, geht bei Linux einfach alles reibungslos.

Ich bin begeistert und noch mehr davon überzeugt, dass Freie Software der richtige Weg ist. Sie bietet mir nicht nur die Freiheit, mein System so anzupassen, wie ich es will, sondern auch die Zuverlässigkeit, die man sich von einem Betriebssystem wünscht.

Siehe https://zockertown.de/s9y/index.php?/archives/1465-Warum-ich-Linux-und-Open-Source-so-liebe-Freie-Software.html