Forks bei Kryptowährungen Welche Vorteile bieten diese dem Endanwender

Beste Broker fur Binare Optionen 2020:
  • Binarium
    Binarium

    Der beste Broker fur binare Optionen fur 2020!
    Ideal fur Anfanger!
    Kostenloser Unterricht!

  • FinMax
    FinMax

    2 Platz in der Rangliste! Zuverlassiger Broker.

Contents

Forks bei Kryptowährungen: Welche Vorteile bieten diese dem Endanwender?

Der Wettstreit von Ideen, die treibende Kraft hinter jedem Fortschritt, betrifft digitale Währungen genauso wie andere Dinge auf der Welt. Trotz einer anderen Natur der digitalen Währungen sind die Ambitionen, das Geschäft zu regulieren und die Zukunft der Blockchain zu gestalten, offensichtlich. Wenn ein Teil einer Krypto-Community mit den aktuellen Regeln unzufrieden ist, kann diese die Währung aufgeben und mit einer neuen Währung fortfahren.

Ein Fork ist ein Begriff, der eine Situation beschreibt, in der eine Blockchain der ursprünglichen Währung in zwei inkompatible Zweige aufgeteilt wird. Eine bestehende Währung bringt eine neue hervor. Der Grund für einen Fork ist am häufigsten das Bestreben der Community, verschiedene Regeln umzusetzen. Dies kann Folgendes beinhalten:

  • Eine Reduktion der Mining-Möglichkeit der Kryptowährung,
  • Die Anpassung der technischen Parameter einer Transaktion (die erste harte Fork von Bitcoin),
  • Bestrebungen einen Schaden, der durch einen Cyberangriff verursacht wurde, zu beseitigen (Der Reverse-Fork von bei Ethereum nach dem Diebstahl von zig Millionen USD),
  • Der Versuch, einen multinationalen Konzern zur Regulierung einzuladen.

Die Trennung von einer Originalwährung kann von jedem vorgenommen werden. Dazu muss lediglich ein entsprechender Code heruntergeladen (bei Bitcoin finden Sie ihn auf der GitHub-Plattform) und die Blockchain angepasst werden. Wenn es dem Schöpfer der neuen Kryptowährung gelingt, eine große Gruppe von Benutzern zum Minen zu überreden und Transaktionen durchzuführen, besteht die Chance, dass die neue Währung Fuß fassen wird.

Harter Fork und sanfter Fork: Was sind die Unterschiede?

Jeder mit ein wenig Ahnung vom Programmieren kann seine Kryptowährung erstellen.

Es gibt immer eine gewisse Anzahl neuer Kryptowährungen, die durch die permanente Trennung von der ursprünglichen Kryptowährung entstehen. Dies wird als harter Fork bezeichnet und funktioniert nach dem Prinzip des Kopierens der ursprünglichen Blockchain bei Einführung von neuen Transaktionsbedingungen. Beide Blockchains (die der neuen und der alten Kryptowährung) teilen sich die Geschichte und existieren unabhängig voneinander nebeneinander.

Aufgrund von Ähnlichkeiten zwischen den beiden Währungen werden Transaktionen mit einer Blockchain in der Regel in der anderen „erfasst“. Theoretisch könnte ein Empfänger der einen Kryptowährungen eine identische Menge der anderen Kryptowährung erhalten. Die Replay-Protection ist ein Werkzeug, um Sie vor solchen Aktionen zu schützen. Diese beinhaltet die Wiedergabe und Verifizierung einer Transaktion. Wenn die Übertragung nicht mit der neuen Krypto-Transaktionsrichtlinie übereinstimmt, wird die Transaktion ungültig.

Ein weicher Fork ist eine Änderung des Kryptowährungs-Protokolls und ein untrennbarer Bestandteil der Existenz von Kryptowährungen. Weiche Forks treten auf, wenn die neu geminten Blocks einer alten Software validiert werden müssen.

Die Geschichte der Bitcoin-Forks

Bitcoin, die älteste aller Kryptowährungen, hat zwei harte Forks erlebt. Neben diese beiden finden sich in der Geschichte einige andere, weniger bedeutsame Forks mit einer minimalen Auswirkung (wie Bitcoin Diamond etc.)

Der erste harte Fork fand in August 2020 als Folge der Bemühungen, die Anzahl der Transaktionen während des Verifikationsprozesses zu erhöhen, statt. Bei Bitcoin ist die Größe eines Blocks auf 1 MB begrenzt. Die Software überprüft im Durchschnitt drei Transaktionen pro Sekunde. Mit der wachsenden Zahl an Überweisungen wächst die durchschnittliche Zeit und damit auch die Kosten. Wer einen schnellen Service will, muss die Miner für die Rechenleistung bezahlen.

Beste Broker fur Binare Optionen 2020:
  • Binarium
    Binarium

    Der beste Broker fur binare Optionen fur 2020!
    Ideal fur Anfanger!
    Kostenloser Unterricht!

  • FinMax
    FinMax

    2 Platz in der Rangliste! Zuverlassiger Broker.

Das neue Bitcoin Cash (BCH) führt 8-mal mehr Transaktionen pro Sekunde durch als das alte. Andererseits ist es nicht so vertrauenswürdig wie sein älterer Bruder. Während der Wert eines Bitcoins Mitte Februar 2020 10,340 USD betrug, wurde Bitcoin Cash zu einem Preis gehandelt, der 7-mal niedriger war.

Der zweite Fork von Bitcoin Gold (BTG) verfolgte die ursprüngliche Idee, eine dezentrale Währung zu schaffen. Sie ist eine Konsequenz auf die kontinuierliche Konzentration der Mining-Aktivitäten auf einige wenige große Pools. Am 18. Februar 2020 betrug der Wert von BTG 135,87 USD.

Die zwei wichtigstes Forks bei Bitcoin im Jahr 2020

Die Auswirkungen auf den Endverbraucher

Ein Split einer Kryptowährung bedeutet nicht, dass Sie Ihr digitales Geld verlieren. Nach dem Kopieren der Blockchain bleiben Sie dennoch der Besitzer eines kryptographischen Schlüssels in Ihrem Wallet. Wenn Sie keine Drittanbieteranwendungen verwenden, erlauben es Ihnen die neuen Währungen, Transaktionen durchzuführen.

Nach einem harten Fork erhalten alle Besitzer der ursprünglichen Währung den gleichen Betrag der neuen Währung. Dies bedeutet jedoch nicht, dass sich der Wert der von Ihnen gehaltenen Währungen verdoppelt hat. Wie Sie sehen können, beträgt der Wechselkurs von BCH und BTG das 7-fache. 76-mal niedriger.

Autor

Mehr J. Pro

Im Gegensatz zu Stefan (dem anderen Autor), denke ich erst seit kurzem über das Online-Business nach. Ich war wenig erfolgreich mit dem Dropshipping auf Amazon und anderen Varianten, um online Geld zu verdienen; So habe ich nur ein paar Hundert Dollar in einigen Jahren verdient. Aber dann erregten Binäre Optionen durch ihr einfaches Prinzip meine Aufmerksamkeit. Jetzt bin ich froh, dass ich den Schritt gewagt habe, denn es hat sich gelohnt. Weiterlesen

Artikel mit den Schlagworten: bitcoin

Forks bei Kryptowährungen: Welche Vorteile bieten diese dem Endanwender?

Der Wettstreit von Ideen, die treibende Kraft hinter jedem Fortschritt, betrifft digitale Währungen genauso wie andere Dinge auf der Welt. Trotz einer anderen Natur der digitalen Währungen sind die Ambitionen,…

Bitcoin: Vor- und Nachteile

Während die Erfindung E-Mail half, die gesamte Welt miteinander zu verbinden und die Kommunikation über die Kontinente hinweg zu ermöglichen, revolutionierte Bitcoin das Finanzsystem. Bitcoin ermöglicht es, uns gegenseitig Geld…

Wie kaufe oder verkaufe ich Bitcoin an einem Bitcoin-Geldautomaten?

Wenn Sie es nicht wagen, online an einer Krypto-Börse zu handeln, sondern Bitcoins oder Altcoins (sofern diese vom Betreiber aktiviert werden) bequem an einem Offline-Platz zu kaufen, können Sie einen…

Die Drei-Punkte-Checkliste vor dem Einstieg in Bitcoin

In den letzten Wochen ist Bitcoin zu einer heißen Ware geworden. Ende 2020 überschritt der Wert einer eines Bitcoins 10.000 USD, zwei Wochen später sogar 20.000 USD. Wenn Sie Bitcoins…

Bitcoin: Grundlegende Informationen vor einer Investition. Was Sie wissen sollten (2/2)

Vor kurzem habe ich viele Nachrichten von Leuten erhalten, die mit dem Kauf oder Handel von Kryptowährungen begonnen haben. Toll, das freut mich sehr. Da ich jedoch sehr beschäftigt bin,…

Bitcoin Core: Bitcoin-Schutz und Mining-Werkzeug

Im Jahr 2020 überschritt die Marktkapitalisierung aller Krypto-Währungen 790 Milliarden USD. Das ist mehr als das Jahresbudget des zweitgrößten Landes der Welt, Indien. Kein Wunder, dass digitale Währungen Aufmerksamkeit erregen….

Bitcoin: Grundlegende Informationen vor einer Investition. Was Sie wissen sollten (1/2)

Vor kurzem habe ich täglich einige E-Mails von Leuten erhalten, die mit dem Kauf oder dem Handel von Kryptowährungen beginnen möchten. Toll, das freut mich sehr. Da ich jedoch sehr…

Wie kann ich auf etwas vertrauen, das nicht existiert?

Vor der allerersten Bitcoin-Konferenz in London im Jahr 2020 wurde eine Umfrage durchgeführt, um die Verbreitung des Wissens über die Kryptowährungen vier Jahre nach dessen Start zu bestimmen. Obwohl die…

Ist Ethereum das neue Bitcoin?

Die Anzahl der virtuellen Währungen (Kryptowährungen) ist groß und reicht von Hunderten bis zu Tausenden. Nach einigen Schätzungen gibt es etwa 2.000 verschiedene Arten von Kryptowährungen. Die meisten Menschen wissen…

News: Der Handel von Kryptowährungen mit einem Broker für Binäre Optionen

Kryptowährungen sind in letzter Zeit zu einem globalen Phänomen geworden, das in verschiedenen Foren häufig diskutiert wird. Ich bin mir sicher, dass Sie zumindest von einigen schon gehört haben, sei…

ubuntuusers.de

Planet

Der Planet fasst Nachrichten aus Blogs der Ubuntu- und Open-Source-Gemeinschaft zusammen. Der Planet wird vom Ikhayateam im Rahmen der Planetenregeln administrativ betreut. Wenn du einen passenden Blog kennst oder selbst führst, kannst du es vorschlagen und eintragen lassen.

Blogs exportieren

Blogs

13. Dezember 2020

CentOS 8: sechs Wochen ohne Updates ¶

Die Überschrift sagt eigentlich schon alles: Ich habe seit sechs Wochen keine Updates mehr für meine CentOS-8-Systeme erhalten. (Ich beziehe mich dabei auf die zwei wichtigsten Paketquellen, Base und AppStream, jeweils für die Architektur x86_64.) Sicherheitstechnisch ist das sub-optimal, gelinde formuliert.

Update 23.12.2020: CR-Paketquelle aktivieren (siehe unten)

Update 15.1.2020: CentOS 8.1 (in der CentOS-Nomenklatur »CentOS 8.1 [1911]«) ist fertig. Wer CentOS 8 installiert hat, bekommt nun endlich — nach 10 Wochen — wieder Updates.

Konkret bedeutet das für einige ausgewählte Pakete (Stand 13.12.2020, jeweils nach yum update ):

Red Hat hat seit dem 30.10.2020 diverse kritische Sicherheitslücken gestopft (Quelle). Betroffen sind unter anderem Firefox und PHP. CentOS-8-Anwender stehen diesbezüglich im Regen.

Ursache des Problems ist wohl die Umstellung auf CentOS 8.1, deren Ende nicht absehbar ist (Quelle). Red Hat hat ja Anfang November Version 8.1 vorgestellt, CentOS konnte diesen Versionssprung bisher nicht nachvollziehen.

Angesichts dieser Verzögerungen stellt sich aber die Frage, ob man CentOS noch als kostenlose RHEL-Alternative empfehlen kann. Im jetzigen Zustand offenbar nicht — es geht einfach nicht an, dass wichtige Sicherheits-Updates wochenlang ausbleiben.

Continuous-Release-Paketquelle (Update 23.12.2020 + 27.12.2020)

CentOS sieht eine Continuous-Release-Paketquelle (kurz CR) vor. Diese soll speziell in der Übergangszeit zwischen Minor Releases weniger gut getestete Pakete enthalten und so einerseits eine frühzeitige Testmöglichkeit bieten, andererseits aber auch einen Weg, kritische Updates ohne die Wartezeit auf das nächste Release zu erhalten. Hier ist die offizielle Beschreibung des CR-Repositories.

Die Datei /etc/yum.repos.d/CentOS-CR.repo enthält darüberhinaus den folgenden Hinweis, den ich hier wörtlich zitiere:

Die Aktivierung der Paketquelle ist simpel:

In der Folge berücksichtigt yum update auch die CR-Paketquelle.

Der praktische Nutzen war zum Zeitpunkt meines ersten Tests (23.12.2020) allerdings vernachlässigbar. Die CR-Paketquelle für CentOS 8 war leer :-(

Bei einem zweiten Test am 27.12. sah die Sache schon ein wenig besser aus, allerdings trat nun ein Konflikt bei den glibc-Paketen auf.

Paketkonflikte beim Versuch, ein Update mit aktiver CR-Paketquelle durchzuführen

Angesichts des explizit experimentellen Charakters der CR-Quelle ist das grundsätzlich OK. Mit der Option –nobest war es immerhin möglich, einen Großteil der Updates durchzuführen. Meine CentOS-Testinstallation ist damit wieder halbwegs am aktuellen Stand.

Am Grundproblem ändert aber auch die CR-Quelle nichts: CentOS 8 hat mittlerweile seit 8 Wochen (Stand 27.12.) keine offiziellen Updates und ist im aktuellen Zustand für den Produktionseinsatz ungeeignet. Und dieses Urteil lässt sich frühestens revidieren, wenn das Update auf Version 8.2 irgendwann im Sommer oder Herbst 2020 besser verläuft.

Quellen

  • Base-Pakete, geordnet nach letzter Änderung: http://mirror.centos.org/centos/8/BaseOS/x86_64/os/Packages/?C=M;O=D
  • AppStream-Pakete, geordnet nach letzter Änderung: http://mirror.centos.org/centos/8/AppStream/x86_64/os/Packages/?C=M;O=D
  • https://wiki.centos.org/About/Building_8.x
  • https://access.redhat.com/security/security-updates/#/
  • https://www.redhat.com/en/blog/whats-new-rhel-81-kernel-patching-more-insights-and-right-time
  • https://wiki.centos.org/AdditionalResources/Repositories/CR
  • https://lists.centos.org/pipermail/centos/2020-December/thread.html

15.1.2020. Ein kleiner Hoffnungsschimmer, dass in Zukunft alles wieder gut ist :-)

12. Dezember 2020

Ubuntu Pro ¶

Ubuntu Pro ist ein neues Angebot von Canonical und Amazon. Dabei handelt es sich um eine für die Amazon-Cloud (genaugenommen für Amazon EC2) optimierte Variante von Ubuntu LTS. Es gibt drei wesentliche Unterschiede zwischen Ubuntu LTS und Ubuntu Pro:

  • Ubuntu Pro steht aktuell ausschließlich für Amazon EC2 zur Verfügung. Es kann also nicht auf einen eigenen Rechner oder in einem anderen Cloud-System installiert werden.
  • Das Kernel-Live-Patching ist standardmäßig inkludiert.
  • Der Wartungszeitraum beträgt statt fünf Jahren beachtliche zehn Jahre (Version 18.04, 20.04 etc.) bzw. immerhin noch acht Jahre für ältere LTS-Versionen.

Kosten

Die Kosten für Ubuntu Pro werden direkt von Amazon verrechnet — Sie brauchen also keinen direkten Lizenzvertrag mit Canonical abzuschließen. Eine EC2-Instanz mit Ubuntu Pro ist also etwas teurer als eine EC2-Instanz mit Ubuntu LTS. Der Aufpreis beträgt aktuell maximal 20% der Instanzkosten. (Bei leistungsstarken Instanzen ist der Aufpreis prozentuell geringer.)

Absolut sind die Kosten schwer zu beziffern, was mit dem sehr komplexen Kalkulationsmodell von Amazon EC2 zu tun hat. Das folgende Beispiel illustriert die Größenordnung und gibt einen Vergleich zu RHEL:

  • Eine Cloud-Instanz für ein kostenloses Linux (z.B. Ubuntu LTS, Debian, CentOS) vom Typ t3.medium (2 CPU-Cores, 4 GiB RAM) kostet aktuell 0,048 USD pro Stunde (On-Demand Instanz mit Server-Standort in Frankfurt). Pro Monat kostet diese Instanz ohne Software-Aufpreis also ca. 34 USD.
  • Wenn Sie die gleiche Instanz mit Ubuntu 18.04 Pro ausführen, steigen die Kosten auf 0,057 USD pro Stunde (ca. 41 USD pro Monat). Damit kostet Ubuntu Pro für diese Instanz ca. 7 USD pro Monat zusätzlich.
  • Wenn Sie die gleiche Instanz mit Red Hat Enterprise Linux 8 ausführen, steigen die Kosten auf 0,108 USD pro Stunde (ca. 78 USD pro Monat). Damit betragen die Zusatzkosten für RHEL8 für diese Instanz ca. 44 USD pro Monat.

In allen drei Fällen kommen zu den Instanzkosten noch die Kosten für den Datenträger, für den Netzwerkverkehr sowie evt. für weitere Zusatzleistungen (fixe IP-Adresse, Backups auf Amazon S3 usw.).

Insgesamt erscheint die Preisgestaltung von Ubuntu Pro durchaus moderat. Im Vergleich zu RHEL ist Ubuntu Pro geradezu billig. Andererseits ist der Zusatznutzen im Vergleich zum »normalen« Ubuntu LTS natürlich auch recht gering. Wirklich interessant wird Ubuntu Pro dann, wenn eine sehr lange Laufzeit anvisiert wird.

(Losgelöst vom Software-Aufpreis für Ubuntu Pro oder RHEL erscheinen mir die Kosten für Cloud-Instanzen bei Amazon EC2 enorm hoch. Natürlich ist die Flexibilität des Cloud-Angebots praktisch grenzenlos; aber ein »simpler« Root-Server bietet pro USD/EUR fast die zehnfache Leistung.)

Quellen

Geänderte Größe logischer Blockgeräte unter Linux ohne Neustart erkennen ¶

Wird die Größe einer per iSCSI oder Fibre Channel eingebundenen LUN geändert, oder in einer virtualisierten Umgebung die Größe der virtuellen Festplatte (VMDK, VDI, VHD, qcow2, etc.) angepasst, kann man den Linux-Kernel auffordern die entsprechenden Blockgeräte auf Änderungen hin zu prüfen, ohne dafür das Betriebssystem neustarten zu müssen.

Die im folgenden genannten bzw. verlinkten Kommandos wurden unter RHEL 7 mit VMDK-Dateien und iSCSI-Disks getestet. Sie sollten jedoch für Linux im Allgemeinen gelten.

Änderungen an bestehenden Blockgeräten erkennen

Um Änderungen an Blockgeräten zu erkennen, welche dem Kernel bereits bekannt sind, wird folgender Befehl mit root-Rechten ausgeführt:

Dabei ist sdX durch die Bezeichnung des konkreten Blockgeräts wie z.B. sda oder sdb etc. zu ersetzen. Statt dem genannten Bezeichner kann auch die SCSI-Nummer des entsprechenden Gerätes verwendet werden. Der Befehl lautet dann wie folgt (wobei X:X:X:X durch die jeweilige SCSI-Nummer zu ersetzen ist):

Update 2020-12-15: Ist das Paket parted installiert, kann man den Kernel auch mit dem Kommando partprobe über die Änderungen informieren:

Danke an Dirk für diesen Tipp.

Neue Blockgeräte erkennen

Wie neu hinzugefügte Blockgeräte erkannt werden können, habe ich bereits im Artikel Linux: Hotplugged SATA/SAS/SCSI-Festplatten ohne Neustart erkennen beschrieben.

Quellen und weiterführende Hinweise

Geänderte Größe logischer Blockgeräte unter Linux ohne Neustart erkennen ¶

Wird die Größe einer per iSCSI oder Fibre Channel eingebundenen LUN geändert, oder in einer virtualisierten Umgebung die Größe der virtuellen Festplatte (VMDK, VDI, VHD, qcow2, etc.) angepasst, kann man den Linux-Kernel auffordern die entsprechenden Blockgeräte auf Änderungen hin zu prüfen, ohne dafür das Betriebssystem neustarten zu müssen.

Die im folgenden genannten bzw. verlinkten Kommandos wurden unter RHEL 7 mit VMDK-Dateien und iSCSI-Disks getestet. Sie sollten jedoch für Linux im Allgemeinen gelten.

Änderungen an bestehenden Blockgeräten erkennen

Um Änderungen an Blockgeräten zu erkennen, welche dem Kernel bereits bekannt sind, wird folgender Befehl mit root-Rechten ausgeführt:

Dabei ist sdX durch die Bezeichnung des konkreten Blockgeräts wie z.B. sda oder sdb etc. zu ersetzen. Statt dem genannten Bezeichner kann auch die SCSI-Nummer des entsprechenden Gerätes verwendet werden. Der Befehl lautet dann wie folgt (wobei X:X:X:X durch die jeweilige SCSI-Nummer zu ersetzen ist):

Update 2020-12-15: Ist das Paket parted installiert, kann man den Kernel auch mit dem Kommando partprobe über die Änderungen informieren:

Danke an Dirk für diesen Tipp.

Neue Blockgeräte erkennen

Wie neu hinzugefügte Blockgeräte erkannt werden können, habe ich bereits im Artikel Linux: Hotplugged SATA/SAS/SCSI-Festplatten ohne Neustart erkennen beschrieben.

Quellen und weiterführende Hinweise

11. Dezember 2020

Synology Secure Erase macht Festplatten unbenutzbar ¶

Seit Jahren schwöre ich auf die NAS-Systeme von Synology. Hier werkelte für gut 6 Jahre eine DiskStation DS213. Der Name verrät es schon, es handelt sich dabei um eine 2-Bay-Variante. Zum Einsatz kamen hier noch WD Red-Festplatten.

Nun haben sich meine Ansprüche sowohl, was Funktionen als auch Speicherplatz angeht deutlich verändert, weshalb ein neues System her musste. Meine Wahl fiel auf eine DS918+.

Die alte DiskStation wollte ich nun fit für Ebay Kleinanzeigen machen, dazu gehört natürlich auch die alten Festplatten zu säubern. Synology selbst bietet dafür ein entsprechendes Tool namens Secure Erase an, welches sich im DSM im Store Manager versteckt.

Nun trat während die zweite Platte überschrieben wurde jedoch ein Fehler auf. Die Synology DiskStation startete einfach neu, beim anschalten waren beide Festplatten nicht mehr ansprechbar/das ganze System bootete nicht mehr.

Meine ersten Versuche waren, die DiskStation zurückzusetzen. Dazu den Reset-Knopf auf der Rückseite vier Sekunden bis zum ersten Piep-Ton gedrückt halten und anschließend direkt wieder drücken, bis drei weitere Töne kommen. Anschließend sollte sie laut Anleitung nach wenigen Minuten unter find.synology.com wieder erreichbar sein – was auch funktionierte. Nun trat allerdings der nächste Fehler auf „Failed to format the disk 35“. Dies betraf beide Platten. Und auch direkt angeschlossen an einem PC tat sich erst einmal nichts mehr.

In der Computer Verwaltung wurden mir die Festplatten zwar immerhin angezeigt, jedoch schlug die Initialisierung fehl mit der Meldung „Datenfehler (CRC-Prüfung). Spannenderweise konnte ich die SMART-Werte sowie die Festplattengröße jedoch noch problemlos auslesen – was für mich bedeutete, dass die Festplatten an sich noch funktionieren müssten. Zudem war es merkwürdig, dass beide Festplatten exakt das gleiche identische Fehlerbild aufwiesen. Selbst eine Analyse mittels TestDisk brachte keinerlei Erkenntnis.

Die Lösung fand ich nach mehreren Tagen nun endlich im Forum von Synology.

Während des Löschvorgangs wird die Festplatte gesperrt und eine Sicherheitsstufe aktiviert. Dies wird seitens Synology nirgendwo erwähnt! Den einzigen Verweis, den ich bei meinen Recherchen dazu fand lautete wie folgt:

Wenn Secure Erase während der Ausführung unsachgemäß angehalten wird, können Sie Secure Erase direkt auf der Benutzeroberfläche erneut ausführen. Wenn die Festplatten entfernt oder anderweitig verwendet werden, wenn sie noch gesperrt sind, müssen Sie das Kennwort „Synology“ eingeben, um sie zu entsperren.

Da ich keine weitere Festplatte mehr hatte, habe ich kurzerhand eine virtuelle Linux-Maschine aufgesetzt, die Festplatten einzeln dran gehangen und mittels fdisk -l geprüft, welche Zuordnung diese bekommt, bei mir war dies /dev/sdb. Folgende zwei Befehle setzten die Einstellungen bzw. Festplatten dann zurück:

sdb müsst ihr dann je nachdem wie bei euch die Festplatte eingebunden ist einmal anpassen.
Je nach Größe der Festplatte kann gerade der erste Befehl einige Minuten dauern. Nachdem ich beide Kommandos bei den Festplatten durchgeführt hatte, wurden diese endlich wieder erkannt.
Ich kann aus meiner Erfahrung somit nur von der Nutzung der Secure Erase-Funktion abraten und jedem nur ans Herz legen, diese auf keinen Fall zu verwenden. Stattdessen habe ich die Festplatten nun mittels dd gelöscht.

Synology Secure Erase macht Festplatten unbenutzbar ¶

Seit Jahren schwöre ich auf die NAS-Systeme von Synology. Hier werkelte für gut 6 Jahre eine DiskStation DS213. Der Name verrät es schon, es handelt sich dabei um eine 2-Bay-Variante. Zum Einsatz kamen hier noch WD Red-Festplatten.

Nun haben sich meine Ansprüche sowohl, was Funktionen als auch Speicherplatz angeht deutlich verändert, weshalb ein neues System her musste. Meine Wahl fiel auf eine DS918+.

Die alte DiskStation wollte ich nun fit für Ebay Kleinanzeigen machen, dazu gehört natürlich auch die alten Festplatten zu säubern. Synology selbst bietet dafür ein entsprechendes Tool namens Secure Erase an, welches sich im DSM im Store Manager versteckt.

Nun trat während die zweite Platte überschrieben wurde jedoch ein Fehler auf. Die Synology DiskStation startete einfach neu, beim anschalten waren beide Festplatten nicht mehr ansprechbar/das ganze System bootete nicht mehr.

Meine ersten Versuche waren, die DiskStation zurückzusetzen. Dazu den Reset-Knopf auf der Rückseite vier Sekunden bis zum ersten Piep-Ton gedrückt halten und anschließend direkt wieder drücken, bis drei weitere Töne kommen. Anschließend sollte sie laut Anleitung nach wenigen Minuten unter find.synology.com wieder erreichbar sein – was auch funktionierte. Nun trat allerdings der nächste Fehler auf „Failed to format the disk 35“. Dies betraf beide Platten. Und auch direkt angeschlossen an einem PC tat sich erst einmal nichts mehr.

In der Computer Verwaltung wurden mir die Festplatten zwar immerhin angezeigt, jedoch schlug die Initialisierung fehl mit der Meldung „Datenfehler (CRC-Prüfung). Spannenderweise konnte ich die SMART-Werte sowie die Festplattengröße jedoch noch problemlos auslesen – was für mich bedeutete, dass die Festplatten an sich noch funktionieren müssten. Zudem war es merkwürdig, dass beide Festplatten exakt das gleiche identische Fehlerbild aufwiesen. Selbst eine Analyse mittels TestDisk brachte keinerlei Erkenntnis.

Die Lösung fand ich nach mehreren Tagen nun endlich im Forum von Synology.

Während des Löschvorgangs wird die Festplatte gesperrt und eine Sicherheitsstufe aktiviert. Dies wird seitens Synology nirgendwo erwähnt! Den einzigen Verweis, den ich bei meinen Recherchen dazu fand lautete wie folgt:

Wenn Secure Erase während der Ausführung unsachgemäß angehalten wird, können Sie Secure Erase direkt auf der Benutzeroberfläche erneut ausführen. Wenn die Festplatten entfernt oder anderweitig verwendet werden, wenn sie noch gesperrt sind, müssen Sie das Kennwort „Synology“ eingeben, um sie zu entsperren.

Da ich keine weitere Festplatte mehr hatte, habe ich kurzerhand eine virtuelle Linux-Maschine aufgesetzt, die Festplatten einzeln dran gehangen und mittels fdisk -l geprüft, welche Zuordnung diese bekommt, bei mir war dies /dev/sdb. Folgende zwei Befehle setzten die Einstellungen bzw. Festplatten dann zurück:

sdb müsst ihr dann je nachdem wie bei euch die Festplatte eingebunden ist einmal anpassen.
Je nach Größe der Festplatte kann gerade der erste Befehl einige Minuten dauern. Nachdem ich beide Kommandos bei den Festplatten durchgeführt hatte, wurden diese endlich wieder erkannt.
Ich kann aus meiner Erfahrung somit nur von der Nutzung der Secure Erase-Funktion abraten und jedem nur ans Herz legen, diese auf keinen Fall zu verwenden. Stattdessen habe ich die Festplatten nun mittels dd gelöscht.

Synology Secure Erase macht Festplatten unbenutzbar ¶

Seit Jahren schwöre ich auf die NAS-Systeme von Synology. Hier werkelte für gut 6 Jahre eine DiskStation DS213. Der Name verrät es schon, es handelt sich dabei um eine 2-Bay-Variante. Zum Einsatz kamen hier noch WD Red-Festplatten.

Nun haben sich meine Ansprüche sowohl, was Funktionen als auch Speicherplatz angeht deutlich verändert, weshalb ein neues System her musste. Meine Wahl fiel auf eine DS918+.

Die alte DiskStation wollte ich nun fit für Ebay Kleinanzeigen machen, dazu gehört natürlich auch die alten Festplatten zu säubern. Synology selbst bietet dafür ein entsprechendes Tool namens Secure Erase an, welches sich im DSM im Store Manager versteckt.

Nun trat während die zweite Platte überschrieben wurde jedoch ein Fehler auf. Die Synology DiskStation startete einfach neu, beim anschalten waren beide Festplatten nicht mehr ansprechbar/das ganze System bootete nicht mehr.

Meine ersten Versuche waren, die DiskStation zurückzusetzen. Dazu den Reset-Knopf auf der Rückseite vier Sekunden bis zum ersten Piep-Ton gedrückt halten und anschließend direkt wieder drücken, bis drei weitere Töne kommen. Anschließend sollte sie laut Anleitung nach wenigen Minuten unter find.synology.com wieder erreichbar sein – was auch funktionierte. Nun trat allerdings der nächste Fehler auf „Failed to format the disk 35“. Dies betraf beide Platten. Und auch direkt angeschlossen an einem PC tat sich erst einmal nichts mehr.

In der Computer Verwaltung wurden mir die Festplatten zwar immerhin angezeigt, jedoch schlug die Initialisierung fehl mit der Meldung „Datenfehler (CRC-Prüfung). Spannenderweise konnte ich die SMART-Werte sowie die Festplattengröße jedoch noch problemlos auslesen – was für mich bedeutete, dass die Festplatten an sich noch funktionieren müssten. Zudem war es merkwürdig, dass beide Festplatten exakt das gleiche identische Fehlerbild aufwiesen. Selbst eine Analyse mittels TestDisk brachte keinerlei Erkenntnis.

Die Lösung fand ich nach mehreren Tagen nun endlich im Forum von Synology.

Während des Löschvorgangs wird die Festplatte gesperrt und eine Sicherheitsstufe aktiviert. Dies wird seitens Synology nirgendwo erwähnt! Den einzigen Verweis, den ich bei meinen Recherchen dazu fand lautete wie folgt:

Wenn Secure Erase während der Ausführung unsachgemäß angehalten wird, können Sie Secure Erase direkt auf der Benutzeroberfläche erneut ausführen. Wenn die Festplatten entfernt oder anderweitig verwendet werden, wenn sie noch gesperrt sind, müssen Sie das Kennwort „Synology“ eingeben, um sie zu entsperren.

Da ich keine weitere Festplatte mehr hatte, habe ich kurzerhand eine virtuelle Linux-Maschine aufgesetzt, die Festplatten einzeln dran gehangen und mittels fdisk -l geprüft, welche Zuordnung diese bekommt, bei mir war dies /dev/sdb. Folgende zwei Befehle setzten die Einstellungen bzw. Festplatten dann zurück:

sdb müsst ihr dann je nachdem wie bei euch die Festplatte eingebunden ist einmal anpassen.
Je nach Größe der Festplatte kann gerade der erste Befehl einige Minuten dauern. Nachdem ich beide Kommandos bei den Festplatten durchgeführt hatte, wurden diese endlich wieder erkannt.
Ich kann aus meiner Erfahrung somit nur von der Nutzung der Secure Erase-Funktion abraten und jedem nur ans Herz legen, diese auf keinen Fall zu verwenden. Stattdessen habe ich die Festplatten nun mittels dd gelöscht.

Synology Secure Erase macht Festplatten unbenutzbar ¶

Seit Jahren schwöre ich auf die NAS-Systeme von Synology. Hier werkelte für gut 6 Jahre eine DiskStation DS213. Der Name verrät es schon, es handelt sich dabei um eine 2-Bay-Variante. Zum Einsatz kamen hier noch WD Red-Festplatten.

Nun haben sich meine Ansprüche sowohl, was Funktionen als auch Speicherplatz angeht deutlich verändert, weshalb ein neues System her musste. Meine Wahl fiel auf eine DS918+.

Die alte DiskStation wollte ich nun fit für Ebay Kleinanzeigen machen, dazu gehört natürlich auch die alten Festplatten zu säubern. Synology selbst bietet dafür ein entsprechendes Tool namens Secure Erase an, welches sich im DSM im Store Manager versteckt.

Nun trat während die zweite Platte überschrieben wurde jedoch ein Fehler auf. Die Synology DiskStation startete einfach neu, beim anschalten waren beide Festplatten nicht mehr ansprechbar/das ganze System bootete nicht mehr.

Meine ersten Versuche waren, die DiskStation zurückzusetzen. Dazu den Reset-Knopf auf der Rückseite vier Sekunden bis zum ersten Piep-Ton gedrückt halten und anschließend direkt wieder drücken, bis drei weitere Töne kommen. Anschließend sollte sie laut Anleitung nach wenigen Minuten unter find.synology.com wieder erreichbar sein – was auch funktionierte. Nun trat allerdings der nächste Fehler auf „Failed to format the disk 35“. Dies betraf beide Platten. Und auch direkt angeschlossen an einem PC tat sich erst einmal nichts mehr.

In der Computer Verwaltung wurden mir die Festplatten zwar immerhin angezeigt, jedoch schlug die Initialisierung fehl mit der Meldung „Datenfehler (CRC-Prüfung). Spannenderweise konnte ich die SMART-Werte sowie die Festplattengröße jedoch noch problemlos auslesen – was für mich bedeutete, dass die Festplatten an sich noch funktionieren müssten. Zudem war es merkwürdig, dass beide Festplatten exakt das gleiche identische Fehlerbild aufwiesen. Selbst eine Analyse mittels TestDisk brachte keinerlei Erkenntnis.

Die Lösung fand ich nach mehreren Tagen nun endlich im Forum von Synology.

Während des Löschvorgangs wird die Festplatte gesperrt und eine Sicherheitsstufe aktiviert. Dies wird seitens Synology nirgendwo erwähnt! Den einzigen Verweis, den ich bei meinen Recherchen dazu fand lautete wie folgt:

Wenn Secure Erase während der Ausführung unsachgemäß angehalten wird, können Sie Secure Erase direkt auf der Benutzeroberfläche erneut ausführen. Wenn die Festplatten entfernt oder anderweitig verwendet werden, wenn sie noch gesperrt sind, müssen Sie das Kennwort „Synology“ eingeben, um sie zu entsperren.

Da ich keine weitere Festplatte mehr hatte, habe ich kurzerhand eine virtuelle Linux-Maschine aufgesetzt, die Festplatten einzeln dran gehangen und mittels fdisk -l geprüft, welche Zuordnung diese bekommt, bei mir war dies /dev/sdb. Folgende zwei Befehle setzten die Einstellungen bzw. Festplatten dann zurück:

sdb müsst ihr dann je nachdem wie bei euch die Festplatte eingebunden ist einmal anpassen.
Je nach Größe der Festplatte kann gerade der erste Befehl einige Minuten dauern. Nachdem ich beide Kommandos bei den Festplatten durchgeführt hatte, wurden diese endlich wieder erkannt.
Ich kann aus meiner Erfahrung somit nur von der Nutzung der Secure Erase-Funktion abraten und jedem nur ans Herz legen, diese auf keinen Fall zu verwenden. Stattdessen habe ich die Festplatten nun mittels dd gelöscht.

7. Dezember 2020

Das Ethereum Istanbul-Upgrade ¶

Ein kleiner Blick über den Tellerrand: im Laufe des heutigen und morgigen Tages passieren interessante Dinge bei Ethereum. Die Open Source-Software und das gleichnamige Netzwerk Ethereum bilden ein verteiltes System für DApps, die unter die Kategorie der Smart Contracts fallen. DApps kann man sich als „distributed decentraliced cloud computing“ vorstellen. Als Datenstruktur wird eine Blockchain eingesetzt. (Rudimentäre) Anwendungen (Beispielprogramm) werden dort verewigt und können über entsprechende Clients angesprochen werden.

Das Ganze basiert momentan überwiegend auf JavaScript(-ähnlichen Sprachen) und fühlt sich wie die Entwicklertools-Konsole im Webbrowser an. Aber es funktioniert und das sogar erstaunlich gut.

Ressourcen in Form von CPU-Zeit, etc. werden über den eigenen Token Ether verrechnet. Und da haben wir es: bei Ethereum stehen wir zur Hälfte in der Welt der Kryptowährungen – aber eben nur zur Hälfte.

Ethereum unterscheidet sich von Bitcoin nicht nur in den DApps sowie der Struktur. Das Netzwerk ist geprägt von ständigem Wandel, Weiterentwicklung und resultierenden Upgrades. Weit am Horizont steht der Umstieg auf „Ethereum 2.0“ an. Dabei geht um die Umstellung von Proof of Work-Verfahren mit den Minern hin zum Proof of Stake-Verfahren mit sog. Validatoren. Da diese Umstellung tiefe Einschnitte in jeglicher Weise für das Netzwerk bedeutet, wird die Migration schrittweise vollzogen.

Hard Fork-Upgrade

Teil der Migration sind Upgrades, die mitunter zu einem Hard Fork führen. Dies ist immer dann der Fall, wenn die Änderungen nicht abwärtskompatibel sind, also mit dem Upgrade Abläufe und Verhaltensweisen erlaubt werden, die vorher verboten waren. Wird ein Upgrade nicht von ausreichend Nutzern adaptiert, kann sich die Blockkette teilen.

Schauen wir uns das in der Grafik einmal an und fangen oberhalb der gestrichelten Linie an, wo Version 1 läuft: Blöcke werden wie üblich der Blockchain angefügt, indem sie auf einen Parent bzw. Elternteil verweisen. Somit lässt sich rekursiv der Weg zum Urblock, dem Genesis-Block, zurückverfolgen. Das Proof of Work-Verfahren sagt weiterhin aus, dass Grundlage für neue Transaktionen die Kette an Blöcken ist („best block chain“), für die der meiste Aufwand in Form von Mining nötig war. So erklären sich auch die doppelten Blöcke mit der gleichen Nummer: sie gelten als „abgelaufen“ (stale), sofern eine andere Kette mehr Nachfolger hat. Soweit so gut – schauen wir uns nun den Bereich unterhalb der gestrichelten Linie an: hier wird Version 2 betrieben. Anfangs bei Block 99 verhält sich das System genau wie Version 1. Es ist allerdings einprogrammiert, dass ab Block 100 die Änderungen scharf gestellt werden. Das hat zur Folge, dass die dann weitergeführte Blockchain nicht mehr mit Version 1 kompatibel ist.

Problematisch ist dies, weil somit double spending, das mehrfache Ausgeben des gleichen Coins, möglich wird: wer bis zum Block 99 einen Coin in seiner Wallet hatte, kann ihn nun auf beiden Chains zwei Mal ausgeben, da die Ketten nicht mehr miteinander kommunizieren können. Werden Coins aus der Version 1-Blockchain (ab Block 100) von einer Exchange sogar noch zum Handel angeboten, ist das Chaos perfekt: dann haben wir einen weiteren Altcoin (alternative coin) mit eigenem Kurs, etc. Da alte Vermögen (die von Block ≤ 99) ebenfalls gültig sind, haben wir quasi neue Token geschaffen – der Rest ist Auslegungssache vom Finanzamt.

Um nicht durch die potentielle Fragmentierung Schaden zu erleiden, sind deshalb die Entwickler von solchen Systemen meist bemüht, eine hohe Adaption von Upgrades zu erreichen. Dazu aber später noch mehr.

Istanbul-Upgrade

Das Upgrade mit dem Codenamen Istanbul wirkt ab Blocknummer 9.069.000 und bringt für Ethereum einige Neuigkeiten mit:

  • EIP-152 soll Interoperabilität mit Zcash ermöglichen und verbessern
  • EIP-1108 und EIP-2028 machen (Privatsphäre)funktionalitäten erschwinglicher, indem die Kosten für zk-SNAKS (zero knowledge-Instrumenten für bessere Privatsphäre) angepasst und die Gebühr (bei Ethereum sog. gas) von Calldata von 68 gas pro Byte auf 16 gas pro Byte gesenkt werden
  • EIP-1884 hebt die Kosten (gas) für bestimmte opcodes an
  • EIP-1344 fügt das CHANID opcode hinzu, um die korrekte Blockkette zu tracken
  • EIP-2200 ändert das gas metering im Zusammenhang mit dem SSTORE opcode

Übrigens: die erwähnten Opcodes sind wirklich als solche zu verstehen, da Smart Contracts / DApps kompiliert werden und nur das Kompilat mit den eigenen Opcodes samt ABI in der Blockchain gespeichert und schließlich in der Ethereum Virtual Machine (EVM) ausgeführt wird.

Aber irgendwie will das Upgrade diesmal nicht so: auf ethernodes.org/istanbul lässt sich beobachten, wie viele Nodes dieses Upgrade bereits installiert haben (durch ein simples Update des Node-Clients wie geth oder parity). Momentan sind es zum Zeitpunkt des Artikels nur knapp 50 %. Gewünscht wären > 95 %.

Dabei tickt die Uhr: heute Nacht um ca. 01:00 Uhr MEZ soll Block 9069000 erreicht und das Upgrade vollzogen werden. Es bleibt zu schauen, was passiert.

Ethereum Forks sind im Gegensatz zu Bitcoin nicht unüblich: so entstand durch einen erzwungenen Hard Fork durch das Entwicklerteam in Folge des DAO-Hacks Ethereum Classic.

chkservice – ein Tool um systemd Einheiten im Terminal zu verwalten ¶

Vor Jahren hatte ich mal eine Infografik zu systemd und sys-v-init auf ITrig.
Seitdem hat sich viel getan, systemd ist auf dem Vormarsch und sys-v-init gerät ins Hintertreffen. Dienste bzw. Einheiten werden heute meistens mit systemctl verwaltet.

Doch wie lassen sich Einheiten mit mit systemd noch einfacher verwalten?
Ein Autostart mit systemctl enable xyz.service ist schnell gemacht, praktischer wäre allerdings eine Übersicht, ähnlich wie sie noch von sysv-rc-conf oder chkconfig bekannt ist.

Chkservice

bietet dem Anwender genau diese umfassende Sicht auf alle systemrelevanten Dienste und ermöglicht deren schnelle Anpassung.
Der Systemmanager nutzt ncurses als Schnittstelle und erlaubt es Einheiten zu aktivieren, deaktivieren oder zu maskieren.

Chkservice installieren

Das Paket ist in Ubuntu 18.04 integriert und lässt sich fix installieren

Chkservice verwenden

Die Bedienung ist ebenfalls leicht.

  • Die Navigation erfolgt über die Pfeiltasten.
  • Eine Einheit kann mit der Leertaste für den Bootvorgang aktiviert oder deaktiviert werden.
  • Start oder Stop lässt sich via s realisieren.
  • Mit der Taste r kann eine laufende Einheit neu geladen werden.
  • Das ? zeigt euch die Hilfe an.
  • Maskieren, quasi vollständig deaktivieren (/etc/systemd/system symbolic link to /dev/null) lässt sich über m bewerkstelligen.

Fazit

Wer mit dem Terminal weniger zurecht kommt, hat mit chkservice ein gutes Tool an der Hand, um sich einen Überblick zu verschaffen und Einstellungen vorzunehmen.
Allen anderen wird wohl systemctl list-units, systemctl disable xyz.service und Co weiterhin ausreichen.

Threema Lizenzen zu verschenken ¶

Wie in den letzten Jahren werde ich auch dieses Jahr wieder Threema Android Lizenzen verschenken. Dieses Jahr werde ich 5 Lizenzen verschenken. Dazu erhalten die Gewinner oder Glücklichen von mir einen Lzenzschlüssel, mit dem sie auf der Webseite von Threema dann den Android Client nach Eingabe des Lizenzschlüssel herunterladen können.

Es ist nicht möglich, damit Threema vom PlayStore sondern nur aus dem Threema Store herunterzuladen.

Teilnahme

Die Teilnahme ist ganz einfach. Die ersten 5 Nutzer die mich via XMPP / Jabber anschreiben wird ([email protected]) und die folgenden Fragen richtig beantworten kann:

1.) Aus welchem Land kommt Threema? 2.) Was bedeuten die 3 grünen Punkte bei einem Threema Kontakt? 3.) Was ist der Threema Safe?

Ich freue mich auf eure Einsendungen. Ich möchte festhalten ich stehe in keine Zusammenhang mit Threema. Ich kaufe die Lizenzen zum vollen Preis und dieses soll auch keine Werbaktion für mich oder Threema sein. Ich will nur einen kleinen Teil zu mehr Datenschutz und Sicherheit beitragen.

6. Dezember 2020

asciinema: Screencasts aus dem Terminal ¶

Ein kleiner Tipp zum Nikolaus: asciinema ist ein Tool, auf das ich schon vor längerer Zeit gestoßen bin, vor allem durch die Landing Pages einiger typischer „fancy tools“.

In aller Kürze

Bei asciinema handelt es sich in erster Linie um ein Python-Tool, das auf dem Computer installiert wird. Soll eine Terminalsitzung dann aufgezeichnet werden, muss asciinema rec eingegeben werden. Dann wird wie in einem Screencast alles, was ein- und ausgegeben wird, in Echtzeit aufgezeichnet. Nach der Eingabe von exit oder Ctrl+D wird nun angeboten, entweder eine .cast-Datei abzuspeichern oder diese auf dem Portal asciinema.org hochzuladen. In der .cast-Datei befinden sich alle nötigen Informationen des Screencasts im – wer hätte es gedacht – ASCII-Format. Diese .cast-Datei kann nun mit entsprechender JavaScript-Lib in einem HTML5-Browser angezeigt werden. Wer das Ganze mehr hosted/SaaS-like haben möchte, kann auf den Service asciinema.org zurückgreifen.

Beispiel gefällig? Ich habe hier etwas vorbereitet.

Fazit

Aus meiner Sicht ein nettes Tool. Ich hatte es bisher nicht eingesetzt, aber im Zusammenhang mit Live Demos in Vorträgen fiel asciinema als gute Fallback-Variante ein.

Tresorit unter Linux (Debian/Ubuntu) installieren ¶

Nachdem ich jahrelang Google Drive (Schande über mich) als Cloud Speicher für einige Dinge genutzt habe, habe ich mich in den letzten Wochen nach einer sicheren Alternative umgeschaut. Ich habe mich für Tresorit entschieden. Da dieses ein bezahlter Cloud Anbieter ist, werde ich nichts weiter dazu erläutern, weil ich keine Werbung hier machen möchte. Jeder soll hier sich für seinen Anbieter entscheiden.

Download Linuxclient

Einer der wichtigen Punkte warum ich mich für Tresorit entschieden habe, war das es einen vollwertigen Linux Client gibt. Dieser kann über die Webseite heruntergeladen werden:

Installation

Die Installation des Clients ist sehr einfach, da es sich um einen run Script handelt. Dazu werden wir einfach das Script ausführbar machen:

Danach einfach als Nutzer die Installation ausführen:

Die Installation hat bei mir nur knapp 5 Sekunden gedauert und keine Abhänigkeiten gehabt. Es erscheint nur eine kleine Warnung beim ersten Start:

Warning: Ignoring XDG_SESSION_TYPE=wayland on Gnome. Use QT_QPA_PLATFORM=wayland to run on Wayland anyway.

Das war es auch schon.

5. Dezember 2020

Firefox Private Network: Kostenpflichtige Beta von Mozillas systemweiten VPN ¶

Nach dem Start von Mozillas VPN-Erweiterung für Firefox im September dieses Jahres hat Mozilla nun den Start der kostenpflichtigen Beta für sein systemweites VPN bekannt Firefox Private Network gegeben, zunächst für Nutzer von Windows 10 in den USA. Andere Desktop-Plattformen, iOS, Android und Chromebook folgen bald, ebenso die Ausweitung auf andere Länder.

Was ist Firefox Private Network?

Mozilla baut sein Produkt-Portfolio rund um das Thema Privatsphäre unter der Firefox-Marke weiter aus. Nicht nur der Firefox Browser hat in den letzten Monaten verstärkt Privatsphäre-Verbesserungen erhalten, auch wurde mit Firefox Lockwise ein Passwort-Manager für Android und iOS entwickelt und mit Firefox Monitor gibt es einen Dienst, welcher überprüft, ob die eigene E-Mail-Adresse schon einmal Teil eines bekannten Datenlecks geworden ist. Firefox Private Network ist der neueste Mozilla-Dienst dieser Kategorie. Es handelt sich dabei um ein sogenanntes Virtual Private Network, oder kurz: VPN.

Firefox Private Network verfolgt primär zwei Ziele. Zum einen soll sämtlicher Verkehr verschlüsselt werden, um so sensible Daten wie Passwörter, E-Mails oder Kreditkarteninformationen vor Angreifern zu schützen. Zum anderen wird aber auch gezielte Werbung erschwert, da der tatsächliche Standort vor Websites und Werbe-Netzwerken versteckt wird.

Neben der Verbesserung des Angebots, um die Privatsphäre der Nutzer zu verbessern, ist das Firefox Private Network auch Teil von Mozillas Strategie, unabhängiger von den Einnahmen durch Suchmaschinen zu werden. Stand 2020 kommen 91 Prozent von Mozillas Einnahmen durch Suchmaschinen.

Firefox Private Network als Firefox-Erweiterung

Im September 2020 hat Mozilla die öffentliche Betaphase des Firefox Private Network als Erweiterung für den Firefox Browser für Nutzer in den USA gestartet. Der Vorteil dieser Lösung: Die Installation ist einfach, funktioniert auf jedem Desktop-System und kann innerhalb des Browsers per Knopfdruck an- und ausgeschaltet werden. Dafür kann die Firefox-Erweiterung natürlich nur den Datenverkehr schützen, welcher innerhalb des Browsers anfällt.

Für das VPN via Firefox-Erweiterung arbeitet Mozilla mit Cloudflare zusammen.

Die kostenlose Firefox-Erweiterung enthält ab sofort zwölf Pässe pro Monat, welche jeweils für eine Stunde gültig sind.

Firefox Private Netwerk als systemweites VPN

Für Nutzer in den USA ist ab sofort die Voranmeldung zur kostenpflichtigen Betaphase von Mozillas systemweiten VPN möglich. Damit wird nicht nur der Datenverkehr innerhalb von Firefox, sondern auf dem gesamten System geschützt, also auch für Nutzer von Google Chrome und anderen Browsern oder Anwendungen.

Für das systemweite VPN arbeitet Mozilla mit dem schwedischen VPN Mullvad zusammen.

Der zeitlich limitierte Einführungspreis während der Betaphase beträgt 4,99 Dollar pro Monat. Es gibt eine 30-tägige Geld-zurück-Garantie. Der Nutzer kann einen Server aus über 30 Ländern auswählen und bis zu fünf Geräte verbinden.

Mozillas systemweite VPN steht derzeit nur für Nutzer einer 64-Bit-Version von Windows 10 zur Verfügung. Die Unterstützung von Linux, Apple macOS, Apple iOS, Google Android sowie Google Chromebook soll bald folgen. Ebenso sollen bald auch Nutzer außerhalb der USA das Firefox Private Network nutzen können.

Snaps oder Flatpaks – Es gibt kein zurück ¶

Kaum etwas ist aktuell im Bereich des Linux Desktops zu umstritten wie die neuen Paketformate. Vorbei die Zeiten der Desktop Flamewars, nun geht es um die Art der Programminstallation. Doch gleich welches der beiden Formate sich durchsetzt oder ob es eine dauerhafte Koexistenz gibt – die klassische Paketverwaltung wird so nicht überleben.

Die Paketverwaltung gehört neben dem Kernel seit vielen Jahrzehnten zur DNA von Linux als Betriebssystem. Egal wie die Distribution hieß, egal welche Architektur sie bediente: Eine Form der Paketverwaltung gab es immer. Die Art und Weise der Richtlinien zur Paketierung gruppierte Linux Distributionen in Rolling Release oder Stable und formte damit identitätsstiftende Lager. Der Umgang mit einer Paketverwaltung war zu jeder Zeit der vereinende Rahmen um die fragmentierte Linux Familie und unterschied sie von den Alternativen Systemen Windows und macOS.

In dieses ausdefinierte Linux Ökosystem platzten vor einigen Jahren die neuen Formate, die heute als Snaps und Flatpaks firmieren. Anfangs belächelt, zogen sie in den vergangenen Veröffentlichungen in immer mehr Distributionen ein und nehmen in diesen zunehmend mehr Raum ein.

Die neuen Formate unterscheiden sich – simplifiziert ausgedrückt – von den bisherigen Systemen, weil sie ein Kernelement von Linux Distributionen abschaffen. Aufwändig aufgesplittete Software, in riesigen Abhängigkeitsbäumen mit vielen Dependenzen sollten mit ihnen der Vergangenheit angehören. Die neuen Formate beinhalten einen Großteil der benötigen Abhängigkeiten selbst und setzen lediglich sehr allgemeine Basis-Pakete voraus.

Das löste Widerstand aus, weil viele Linux Anwender Stolz darauf auf ihre schlanken Systeme sind und dass im Idealfall keine Bibliothek doppelt auf dem System vorhanden ist. Angesichts gegenwärtiger Fest- und Arbeitsspeicherkapazitäten aber ein nachrangiger Faktor, der vor allem der persönlichen Befriedigung dient.

Trotz der vielen und teilweise sicher begründeten Kritik gibt es kein zurück zum Status quo ante. Aus folgenden Gründen:

  • Hinter den neuen Paketen stehen mit Red Hat und Canonical zwei Firmen, die mit ihrer Innovationskraft seit Jahren Linux im Desktop- und Serverbereich formen. Sie ziehen ganze Schwärme an Derivaten mit sich. Es mag kleine gallische Dörfer wie Devuan geben, aber die Masse der Linux Anwender folgt diesen beiden Leuchttürmen.
  • Die meisten Linux Distributionen kämpfen mit sinkenden Zahlen bei den ehrenamtlich beitragenden Maintainern. Gleichzeitig hat sich die Zahl der Distributionen in den letzten Jahren nochmal massiv erhöht. Momentan muss ein und dieselbe Software für jede Distribution und jede Version derselben neu paketiert werden. Die neuen Formate müssen im Idealfall lediglich einmal gebaut werden.
  • Viele essenzielle proprietäre Softwareprodukte werden bereits jetzt bevorzugt in den neuen Formaten ausgeliefert aber auch freie Projekte z. B. Nextcloud haben den Wechsel bereits vollzogen.
  • Viele Paketverwaltungen sind vom Design Produkte des letzten Jahrhunderts. Moderne Distributionen wie Arch Linux haben hier Teils alte Zöpfe abgeschnitten aber viele Distributionen setzen auf wenig performante Verwaltungen, die zusätzlich einen komplizierten Bauprozess erfordern. Ein Paradebeispiel für diese Probleme ist das DEB Format mit seinen zahlreichen parallel existierenden Managern.
  • Die neuen Formate ermöglichen erweiterte Sicherheitskonzepte wie spezielle Zugriffsrechte, die den Anwendern bereits von mobilen Geräten vertraut sind.

Die klassische Paketverwaltung wird deshalb nicht sofort verschwinden. Mir fehlt zur Zeit die Fantasie um mir die Verwaltung des Basissystem mit den neuen Formaten vorzustellen. Im Bereich der Desktopumgebungen und Programme ist der Wechsel aber nicht mehr aufzuhalten.

Bilder:
Einleitungs- und Beitragsbild von harshahars via pixabay

Kommentar: Verschwörungen, Ressentiments, Reaktionärer Konservativsmus ¶

Wer bei dieser Überschrift an eine politische Partei denken mag liegt zumindest hier falsch. Diese drei Begriffe bezeichnen meiner Meinung nach die öffentlich in den (deutschen) Kommentarspalten (z. B. bei Pro-Linux, Heise und Golem), sowie in diversen Foren auftretende Linux-Gemeinschaft.

Ich hatte mich dazu kürzlich schon mal geäußert (siehe: Linux Anwender – Nörgeln bis das Ende kommt) und daher in den letzten Wochen die Kommentarspalten in dieser Hinsicht überflogen. Das jüngste Beispiel fand sich im Artikel zu Veränderungen bei Flatpak. Die neuen Paketformate gehören neben allem was von Lennart Poettering stammt zu den größten Hassobjekten einer reaktionären Nutzergemeinschaft, die im Internet immer zahlreicher auftritt.

Ich möchte an dem Beispiel mal kurz auflisten was man alles in den Kommentaren lesen darf:

Hinter Veränderung wird Zentralismus und Abkehr von den Idealen freier Software gewittert, gepaart mit schönen Verschwörungstheorien, weil Red Hat jetzt zu IBM gehört. Aber nicht nur Red Hat und IBM sind böse, nein die GNOME Foundation ist es auch. Gelder würden schließlich in irgendwelchen gerichtlichen Auseinandersetzungen versinken oder die Software gleich von der NSA unterwandert werden. Nebenei wird man natürlich wie Windows und bekommt deshalb wahlweise eine DLL Hölle oder noch schlimmer: Ein Mainstream-taugliches System. Schutzmaßnahmen der Software sind nur für Idioten, echte Linux-Anwender haben das nicht nötig etc. pp.

Dahinter stehen Verschwörungstheorien, sowie Denkweisen und Argumentationsmethoden, die vor allem im Rechtspopulismus seit Jahren Konjunktur haben. Viele Linux Nutzer lehnen große soziale Netzwerke ab, aber die Diskussionskultur ist teils schlimmer, als in den schlimmsten braunen Schlammgruben auf Facebook oder Twitter. Ich muss mich daher leider selbst korrigieren. Die online sichtbar auftretende Linux Community nörgelt nicht nur, sie ist von Hass zerfressen. Es fehlt in der Breite lediglich das persönliche Element, wobei die Anfeindungen gegen Personen wie Lennart Poettering nicht mehr weit davon entfernt sind.

Diese Kommentare sind nicht neu, aber seit einigen Jahren gibt es zunehmend weniger Gegenrede in den öffentlichen Diskussionen. Die Plattformbetreiber haben es durch die Abwesenheit einer Moderation größtenteils erfolgreich geschafft ihre Portale zu Plattformen des Hasses, der Überheblichkeit, unreflektierten Ablehnung des Fremden und Neuen und absoluter Selbstbezogenheit einer schrumpfenden Gemeinde werden zu lassen. Neuerungen, Änderungen oder jede Form von Entwicklung wird meist rundheraus abgelehnt. Ikonen der GNU- und Linux Szene – gleich welche Verfehlungen sie begangen haben – in den Himmel geschrieben. Ein unmöglicher Umgangston gar zu einem Stil verklärt. Entwickler und Anwender, die das anders sehen ziehen sich scheinbar zunehmend zurück oder wechseln gar zu anderen Plattformen um sich dem nicht mehr auszusetzen.

Das öffentliche Auftreten der Linux Gemeinde ist – gelinde gesagt – abstoßend (intern sieht das in vielen Projekten nicht anders aus). Entwickler wandern ab, Blogger ziehen ihre Artikel aus großen Planeten ab, Kommentatoren stellen das Kommentieren ein.

Nur mal so zum Nachdenken.

Bilder:
Einleitungsbild und Beitragsbild von von geralt via pixabay

elementary OS 5.1 „Hera“ veröffentlicht ¶

Die Entwickler von elementaryOS haben mit „Hera“ eine Aktualisierung der aktuellen Veröffentlichung 5 herausgebracht. Im wesentlichen bündelt die neue Version die Neuerungen der letzten Jahre und integriert den jüngsten HWE-Stack in die Installationsmedien. Sie wirft aber gleichzeitig ein Schlaglicht auf eine gereifte Distribution.

Elemenetary OS basiert auf der jeweiligen Ubuntu LTS. Die neue Version 5.1 basiert wie ihre Vorgängerversion auf der LTS 18.04. Die neue Version bietet in den Paketquellen daher keine neuen Versionen der vielen Drittanbieterprogramme. Lediglich den von Ubuntu gepflegten HWE-Stack integriert man nun in die Installation. Bisher blieb elementary OS standardmäßig bei der Kernel Version 4.15, die ursprünglich in Ubuntu 18.04 enthalten war. Durch diese Änderung ermöglichen die Entwickler eine reibungslose Installation auf neuerer Hardware.

Der Blogartikel zur Veröffentlichung zeigt ansonsten sehr schön bebildert die wesentlichen Entwicklungsschritte von elementary OS im letzten Jahr, seit man die Version 5 herausbrachte.

Es gibt einen neu designten Loginscreen, der sehr sehenswert ist und nach der Installation eine informative Einführungsroutine, in der man einige zentrale Einstellungen vornehmen kann. Hinzu kommen viele kleine Änderungen an den eigenen Apps wie dem AppCenter, der Dateiverwaltung, dem Kalender und vielem mehr.

Besonders signifikant ist jedoch die Integration von Flatpak. Die Entwickler binden allerdings nicht Flathub ein, sondern kuratieren ihre eigene Sammlung, die auch über das AppCenter bereit gestellt wird.

Die Entwicklung neuer Paketformate ist immer noch sehr begrüßenswert um die Limitationen der klassischen Paketverwaltung zu überwinden (siehe: Kommentar: Flatpaks und Snaps – Ein Schritt in die richtige Richtung). Die Entscheidung für Flatpak ist allerdings eine riskante Wette der elementary-Leute. Die Ubuntu-Basis strebt Richtung Snap während das elementary-Derivat die Gegenrichtung einschlägt. Das könnte noch zu Unvereinbarkeiten führen.

Interessant dürfte daher in Zukunft sein, ob elementary OS weiterhin Ubuntu als Basis die Treue hält oder sich ggf. umorientiert.

Ansonsten ist elementary OS eine der aktuell interessantesten Linux Distributionen im Desktop Bereich. Mit der voraussichtlich im nächsten Jahr erscheinenden Folgeversion erwäge ich eine Migration der aktuellen Kubuntu 18.04 Systeme auf eOS.

Bilder:
Einleitungs- und Beitragsbild von stevepb via pixabay

4. Dezember 2020

Sicher durch den Winter mit Kali Linux 2020.4, CAINE 11 und Parrot 4.7 ¶

Kali Linux 2020.4

Zum Jahresausklang haben die Entwickler von Kali Linux noch einmal Gas gegeben.
Das neue Release wurde auf Xfce umgestellt, somit sollten Performance Probleme hoffentlich der Vergangenheit angehören.

Außerdem wurde ein Undercover Modus eingeführt, welcher Kali wie Windows aussehen lässt. Der Windows Modus soll für weniger Aufmerksamkeit beim Arbeiten in der Öffentlichkeit sorgen, nette Spielerei.

Die Dokumentation wurde auf Gitlab migriert und steht in Markdown zur Verfügung.

Für Entwickler, die ihre Tools im Kali Repository pflegen gibt es in der Dokumentation eine Anleitung wie sie neue Pakete einreichen können.

Manche werden sie vermisst haben, andere nicht, die Powershell ist auf Kali Linux angekommen und kann einfach installiert werden

NetHunter Kex

Eine weitere Neuerung ist Nethunter Kex. Systeme mit Nethunter können nun an HDMI Geräte angeschlossen werden. Kurz gesagt mit dem Handy ein Kali Linux auf dem Fernseher darstellen.

Die Entwickler scheinen zumindest begeistert von der Vorstellung sein Kali immer in der Hosentasche zu haben

Raspberry Pi

Freunde von ARM Computern müssen sich spätestens nächstes Jahr umstellen, da ab 2020 nur noch 16GB SD Karten unterstützt werden.

CAINE 11

Wurmloch wurde das aktuelle Release des Computer Aided INvestigative Environment getauft.

Die neue Version bootet automatisch komplett im Lesemodus.
Hauptsächlich wurden Tools wie OSINT oder Autopsy 4.13 erneuert und hinzugefügt

  • SCRCPY – screen your Android device
  • X11VNC Server – to control CAINE remotely
  • Hashcat. New scripts (in the Forensics Tools – Analysis menu)
  • AutoMacTc – a forensics tool for Mac. Bitlocker – volatility plugin
  • Autotimeliner – automagically extract forensic timeline from volatile memory dumps
  • Firmwalker – firmware analyzer. CDQR – Cold Disk Quick Response tool
  • CDQR – Cold Disk Quick Response tool

Die Distribution bringt ebenfalls Windows Tools mit, diese wurden selbstverständlich auch erweitert.

Parrot 4.7

Der Papagei hat bereits im September ein Update erhalten, dieses soll aber nicht unerwähnt bleiben.

So wurde das Menü neu strukturiert, der Kernel auf 5.2 angehoben und MATE auf 1.22 aktualisiert.

Außerdem wird in Zukunft die Domain parrotlinux.org als offizielle Adresse verwendet.

Übersicht 12/2020

Name Version Tools Besonderes Basis GUI
Autopsy 4.13.0 . The Sleuth Kit Windows
BackBox 6.0 100+ AWS Ubuntu Xfce
BlackArch 2020.09.01 1750+ ArchLinux ArchLinux Gnome
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0 100+ CLI LFS DWM
DEFT Zero 2020.2 250+ Mac Support Lubuntu 14.04 Lxde
Kali Linux 2020.4 300+ ARM fähig Debian Testing Multi
Kali App Store 20+ Android
LionSec 5.0 . 3 Jahre alt Ubuntu
Matriux v3 RC1 300+ out of date Debian Gnome
NST 28 . Server integriert Fedora
NetSecL OS 6.0 50+ OpenSuse Lxde
Paladin 7.0 30+ Ubuntu
Parrot Sec 4.7 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2020.0 RC7.1 . 64bit Gentoo Xfce
Ronin 150+ out of date Lubuntu Lxde
Sans SIFT 3.0 20+ Ubuntu

550-Inconsistent/Missing DNS PTR record ¶

Beim Senden einer Mail an eine Mail des Anbieters Freenet erhielt ich vom Mail-Server folgende Antwort:

host emig.freenet.de[2001:748:100:40::8:115]
said: 550-Inconsistent/Missing DNS PTR record (RFC 1912 2.1)
(exammple.org) 550 [2001:db8:a0b:12f0::1]:34865 (in reply to RCPT TO command)

Der PTR Resource Record, auf den hier verwiesen wird, ist ein wichtiges Element für Durchführung von Reverse DNS-Abfragen. Für die IPv4- und die IPv6-Adresse des Servers hatte ich einen solchen Eintrag gesetzt. Deshalb war ich etwas verwundert, dass diese Meldung gesendet wurde. Bei der Nachforschung stellte ich dann fest, dass der Server eine IPv4-Adresse besitzt, aber ein ganzes IPv6-Subnetz. Das ist nicht weiter verwunderlich, allerdings sendet Postfix nicht mit einer festen IPv6-Adresse, sondern nutzt irgendeine Adresse aus dem Subnetz. Werden die Einstellungen von Postfix geöffnet:

findet sich dort der Eintrag:

Durch diesen Eintrag ist nicht genau festgelegt welcher IP-Adresse für das Senden genutzt wird. Hier sollten die genauen IP-Adressen festgelegt werden:

Anschließend sollte Postfix neugestartet werden:

Wird nun erneut eine Mail an den Freenet-Server geschickt, so kann es passieren, dass die Fehlermeldung erneut zurückgesendet wird. In einem solchen Fall muss noch einige Minuten bis Stunden gewartet werden, bevor der Freenet-Server die Mails entgegennimmt.

3. Dezember 2020

Mozilla veröffentlicht Firefox 71 ¶

Mozilla hat mit Firefox 71 das letzte große Update des Jahres 2020 seines Browsers für Windows, Apple macOS und Linux veröffentlicht. Dieser Artikel fasst die wichtigsten Neuerungen zusammen – wie immer auf diesem Blog weit ausführlicher als auf anderen Websites.

Bild-in-Bild-Funktion ermöglicht Multitasking

Ein Video ansehen und gleichzeitig etwas anderes am Computer machen – Firefox macht’s möglich. Videos besitzen ab Firefox 71 eine Schaltfläche, um den Bild-in-Bild-Modus zu aktivieren. Damit wird das jeweilige Video vom Tab losgelöst und erscheint in einem eigenständigen kleinen Fenster. Dieses liegt über allen Anwendungen, d.h. Firefox muss sich nicht im Vordergrund befinden, um das Video zu sehen. Der Benutzer kann beispielsweise seine E-Mails in Thunderbird abrufen und gleichzeitig ein Video auf YouTube ansehen.

Die neue Funktion steht in Firefox 71 nur für Nutzer von Windows zur Verfügung und voraussichtlich ab Firefox 72, welcher Anfang Januar 2020 erscheinen wird, auch für Nutzer von Apple macOS und Linux.

Neue Konfigurations-Oberfläche about:config

Firefox bietet unzählige Anpassungsmöglichkeiten für den Nutzer. Die für den Nutzer in den Einstellungen sichtbaren Einstellungen decken dabei nur einen geringen Teil ab. Über about:config findet man zahlreiche weitere versteckte Optionen zur Konfiguration.

Basierte das alte about:config noch auf der Mozilla-eigenen Oberflächen-Sprache XUL, ist die neue Oberfläche in Firefox 71 komplett mit moderner Webtechnologie entwickelt.

Auch andere Teile von Firefox wurden in den letzten Monaten mit Webtechnologie neu entwickelt, unter anderem die Adressleiste sowie der Add-on Manager in Firefox 68 oder die Passwort-Verwaltung in Firefox 70.

Neuer Zertifikats-Betrachter

Infos zum TLS-Zertifikat einer Website hat Firefox bislang in einem separaten Fenter angezeigt. Mit Firefox 71 verschwindet das Fenster. Ab sofort verwendet Firefox einen neuen Zertifikats-Betrachter, welcher in einem Tab statt in einem separaten Fenster angezeigt wird und ebenfalls mit moderner Webtechnologie umgesetzt ist.

Verbesserungen der Passwort-Verwaltung

Die Passwort-Verwaltung war bereits ein großes Thema in Firefox 70 mit der komplett erneuerten Oberfläche unter dem Firefox Lockwise-Branding. In Firefox 71 hat Mozilla weitere Verbesserungen vorgenommen.

So erkennt Firefox beim Ausfüllen von Passwörtern nun auch Passwörter, welche unter Subdomains der gleichen Haupt-Domain gespeichert sind. Und die Warnungen vor Datenlecks sind nun auch für Nutzer von Screenreadern zugänglich.

Entkoppelung von Firefox Account und Sync

Mozilla hat den Firefox Account und die Synchronisation mehr voneinander entkoppelt, um den Anwendungsfall zu unterstützen, in Firefox eingeloggt zu sein, ohne Browsing-Daten zu synchronisieren, da der Firefox Account mittlerweile mehr bietet als nur die Synchronisation. So gibt es beispielsweise seit Firefox 70 auf der Seite about:protections zusätzliche Informationen für eingeloggte Nutzer.

Verbesserungen für Firefox-Erweiterungen (WebExtensions)

Natürlich gab es auch in Firefox 71 wieder Neuerungen für Entwickler von Firefox-Erweiterungen, unter anderem Verbesserungen der Downloads-API.

Eine Übersicht über diese und weitere Neuerungen für Erweiterungs-Entwickler gibt es hier.

Neuerungen bei den Entwickler-Werkzeugen

Schnellere Entwickler-Werkzeuge

Mozilla hat an der Performance-Schraube gedreht und die Geschwindigkeit der verschiedenen Werkzeuge zwischen acht und 15 Prozent verbessert, ein Konsolen-Test kam sogar auf eine gemessene Verbesserung von 40 Prozent.

Mehrzeilen-Modus für Webkonsole

Die Webkonsole hat einen neuen Mehrzeilen-Modus erhalten, welcher einen großen Texteditor seitlich des Ausgabebereiches aktiviert und so die Arbeit mit längeren Scripts vereinfacht.

Blockieren von Ressourcen

Ein neues Feature im Netzwerkanalyse-Werkzeug erlaubt das einfache Blockieren von Ressourcen, um den Einfluss des Tracking-Schutzes oder den Ausfall von externen Diensten zu simulieren.

Volltextsuche für Netzwerkanalyse

Weiter hat die Netzwerkanalyse eine Volltextsuche erhalten, über welche es möglich ist, die Inhalte der geladenen Ressourcen zu durchsuchen.

Weitere Verbesserungen der Entwicklerwerkzeuge

Außerdem neu im Netzwerkanalyse-Werkzeug: Die Möglichkeit, WebSockets genauer zu untersuchen.

Bisher zeigte Firefox neben Farb-Definitionen bereits die Farbe visuell an. Dies ist ab sofort auch bei der Deklaration von CSS-Variablen der Fall.

Derzeit nur für Nutzer in den USA gibt es in den Entwickler-Werkzeugen ein neues Panel, welches Entwickler-spezifische Neuerungen der jeweiligen Firefox-Version anzeigt.

Weitere Informationen zu Verbesserungen für Webentwickler in Firefox 71 finden sich auf hacks.mozilla.org sowie in den MDN web docs.

Verbesserungen der Webplattform

Wie immer gibt es natürlich auch in Firefox 71 wieder neue Webstandards, welche von Firefox unterstützt werden, darunter die Unterstützung von CSS Subgrids – natürlich mit angepasstem Grid-Inspektor in den Entwickler-Werkzeugen -, die column-span-Eigenschaft für CSS Multi-column Layout, CSS clip-path: path() und die CSS-Eigenschaft aspect-ratio.

Ausführliche Informationen zu Verbesserungen der Webplattform in Firefox 71 finden sich auf hacks.mozilla.org sowie in den MDN web docs.

Übrigens: Mozilla hat einen neuen YouTube-Kanal, auf welchem wöchentlich neue Inhalte für Entwickler veröffentlicht werden.

Neuerungen für Unternehmen

Kiosk-Modus

Firefox kann ab sofort in einem sogenannten Kiosk-Modus betrieben werden. Nähere Informationen dazu finden sich auf Mozillas Hilfe-Plattform.

Neue Unternehmens-Richtlinien

Mittels Enterprise Policy Engine kann Firefox vorkonfiguriert werden, was vor allem im Unternehmensumfeld interessant ist. Dies geschieht auf Windows über GPO, auf Apple macOS via .plist-Datei oder plattformübergreifend auf Windows, Apple macOS und Linux über eine Datei policies.json. Auch Firefox 71 unterstützt wieder neue Enterprise Policies.

Sonstige Neuerungen in Firefox 71

Firefox kann auf Windows, Apple macOS und Linux nun nativ und ohne Drittanbieter-Abhängigkeit MP3-Dateien dekodieren.

Firefox kann jetzt auch auf Apple macOS Passwörter aus Google Chrome importieren.

Geschlossene Sicherheitslücken

Natürlich hat Mozilla auch in Firefox 71 wieder zahlreiche Sicherheitslücken geschlossen. Alleine aus Gründen der Sicherheit ist ein Update auf Firefox 71 daher für alle Nutzer dringend empfohlen.

30. November 2020

Spotify mit Ubuntu ¶

Nachdem ich mich lange Zeit gegen Streamingdienste gewehrt habe und alle Musik selbst mit MiniDLNA bereitgestellt habe, bin ich vorgestern mal den Schritt zu Spotify gegangen. Das habe ich auch gleich zum Anlass für neue Kopfhörer mit Bluetooth genommen und neben dem Smartphone soll ja auch Ubuntu 18.04 auf dem Notebook zum Musikhören genutzt werden. Das Bluetooth-Headset war sehr schnell mit den Einstellungen eingerichtet und verbunden. Und der Ton wird direkt nach dem Koppeln auch nur noch darüber ausgegeben. Auch die Lautstärkeregelung hat sich sofort auf das Headset umgestellt. Die Nach-Installation von Spotify habe ich dann mittels Snap ausgeführt (und mich mal bewusst gegen ein DEB Pakete entschieden). Der Befehl: snap install spotify hat in kurzer Zeit alles installiert und eingerichtet. Nach dem Anmelden mit meinem Spotify Konto konnte ich direkt alle Playlists sehen und nutzen. Die Sondertasten zum Vorspringen der Titel auf der Notebook Tastatur funktionieren tadellos und ich kann damit durch die Titel navigieren. Aber auch die Tasten am Headset, “nächster Titel”, funktionieren einwandfrei und auf dem Desktop wird in der Statusleiste oben direkt angezeigt, welches Lied als nächstes gespielt wird. Die Unterstützung von Spotify sowie dem Headset sind perfekt in Ubuntu integriert und ermöglichen einen problemlosen Musikgenuss.

26. November 2020

Mozilla 2020 erstmals mit weniger Umsatz, dennoch mit gesteigertem Vermögen ¶

Mozilla hat seinen Finanzbericht für das Jahr 2020 veröffentlicht. Erstmals seit 2005 hat Mozilla weniger Umsatz als im Vorjahr gemacht und das deutlich. Dies hängt vor allem mit der Ablösung von Yahoo durch Google als Standard-Suchmaschine in den USA zusammen. Dennoch konnte Mozilla seine Vermögenswerte weiter steigern. Außerdem hat Mozilla in 2020 seine Beteiligung an der deutschen Cliqz GmbH gelöst und den Rechtsstreit mit Yahoo beigelegt.

Wie jedes Jahr am Jahresende hat Mozilla auch in diesem Jahr seinen Finanzbericht für das Vorjahr veröffentlicht, welcher offenlegt, in welcher Höhe Mozilla Einnahmen und Ausgaben hatte.

Gegenüber einem Umsatz von etwas mehr als 562 Millionen Dollar im Jahr 2020, konnte im Jahr 2020 ein Umsatz in Höhe von über 450 Millionen Dollar erzielt werden. Damit liegt Mozillas Umsatz erstmals seit 2005 unter dem des Vorjahres, und zwar deutlich, nachdem Mozillas Umsatz zuvor über Jahre teilweise rapide gestiegen war. Mozilla erklärt dies damit, dass das Jahr 2020 ein Ausreißer war, unter anderem wegen des in 2020 neu ausgehandelten Suchmaschinen-Vertrags. In diesem Jahr war Mozilla vorzeitig aus seinem Vertrag mit Yahoo ausgestiegen und hat seit dem für Nutzer in den USA wieder Google als Standard-Suchmaschine in Firefox.

Den Rechtsstreit, welchen Mozilla und Yahoo wegen Mozillas vorzeitigem Ausstieg aus dem Suchmaschinen-Vertrag mit Yahoo seit Dezember 2020 ausgetragen hatten, ist nach Angaben von Mozilla im September 2020 zu einem Ende gekommen. Details zum Ausgang nannte Mozilla keine. Allerdings erwartete Mozilla nach eigenen Angaben keine nachteiligen finanziellen Auswirkungen.

Insgesamt ist Mozillas Abhängigkeit von Suchmaschinen leicht gesunken, und zwar von 93 auf 91 Prozent des Gesamt-Umsatzes. Es ist zu erwarten, dass dieser Anteil in den nächsten Jahren noch weiter sinken wird, da Mozilla verstärkt auf Services als weitere Einnahmequellen setzt, wie zum Beispiel durch das 2020 für 30 Millionen Dollar erworbene Pocket oder das Firefox Private Network, welches sich derzeit im noch kostenlosen Betatest befindet.

Auf der Ausgaben-Seite stehen knapp über 451 Millionen Dollar, verglichen mit fast 422 Millionen Dollar im Vorjahr. Knapp 278 Millionen Dollar davon sind Budget für die Produktentwicklung, unter anderem von Firefox (2020: knapp 260 Millionen Dollar). Für Marketing wurden knapp 53 Millionen Dollar und damit deutlich weniger als im Vorjahr ausgegeben (2020: knapp 66 Millionen Dollar).

Obwohl Mozillas Ausgaben im Jahr 2020 erstmals sogar knapp über den Einnahmen lagen, ist Mozillas Netto-Vermögen, unter anderem durch eine Steuer-Rückzahlung, von über 514 Millionen Dollar auf mehr als 523 Millionen Dollar gestiegen.

Wie aus dem Bericht weiter hervorgeht, hat Mozilla seine Anteile an der deutschen Cliqz GmbH im Juli 2020 zurück an Cliqz verkauft. Im August 2020 hatte Mozilla für 1,8 Millionen Dollar zehn Prozent der deutschen Cliqz GmbH erworben, um die Entwicklung innovativer Produkte im Bereich Datenschutz bei der Suche im Internet voranzutreiben. Mozilla ist damit also nicht länger Minderheits-Eigentümer der Cliqz GmbH.

25. November 2020

Rezension: Skalierbare Container-Infrastrukturen ¶

In dieser Rezension bespreche ich das Buch „Skarlierbare Container-Infrastrukturen“ vom Autor Oliver Liebel vom Rheinwerk-Verlag.

Hinweis: Der Rheinwerk-Verlag stellte mir für die Rezension ein Rezensionsexmplar frei zur Verfügung.

Was steht drin?

Viel! Sehr viel sogar. Das Buch umfasst insgesamt 1380 Seiten, ist nicht nur von außen betrachtet ein echt umfangreiches Buch. Es unterteilt sich in 5 Teile mit insgesamt 25 Kapiteln.

Der Autor beginnt den ersten Teil „Brave New World?“ mit dem allgemeinen Einstieg in das Thema der Container: Was ist es und wofür braucht man es? Er beantwortet zudem die Frage, ob es wirklich alles so einfach ist, wie behauptet wird.

Die Grundlagen werden im zweiten Teil „Single-Node Container-Systeme“ vermittelt. Hier geht es vor allem, aber nicht nur, um Docker. So wird ein Einstieg gegeben und die grundlegenden Konzepte und Kommandos an Hand von Beispielen erläutert.

Teil 3 „Skaliarbare Container-Cluster und Container-Orchestrierung“ behandelt im Wesentlichen Kubernetes und etcd. Dies ist zudem auch der umfangreichste Teil: Es macht mit 672 Seiten knapp die Hälfte des Buches aus. Kein Wunder: Kubernetes ist sehr komplex und auf die Einzelheiten wird näher eingegangen. Darunter etwa auch, wie man Kubernetes ohne Docker betreibt.

Im vierten Teil „High-Level-Orchestrierungstools für Container-Infrastrukturen (on Premise und in der Cloud)“ setzt auf den dritten Teil auf und behandelt im wesentlich OpenShift, was die Kubernetes-Distribution von Red Hat ist.

Der fünfte und letzter Teil „Software-Defined Storage für verteilte Container-Infrastrukturen“ befasst sich mit Software-Defined-Storage, darunter Ceph. Zusätzlich werden noch Checkpunkte für vor den Aufbau von Container-Infrastrukturen besprochen, sowie ein Ausblick und Fazit zur Container-Welt gegeben.

Kritik

Meine Gefühle für das Buch sind ein wenig gemischt. Keine Frage: Fachlich ist das Buch sehr gut. Es ist nicht nur beim Blick auf die Seitenanzahl sehr umfangreich, sondern auch beim tatsächlichen Inhalt. Wichtig ist, dass an sehr vielen Stellen erkennbar ist, dass der Autor viele Praxis-Kenntnisse in dem Bereich besitzt. Das führt dazu, dass an sehr vielen Stellen praxis-relevante Hinweise gegeben werden, wie gut oder vor allem schlecht etwas funktioniert.

Und genau der letzte genannte Punkt ist zeitgleich mein größter Kritikpunkt. Prinzipiell find ich es gar nicht so schlecht, wenn in Büchern „Klartext“ geschrieben wird und die Probleme richtig genannt werden, da nicht alles so schön einfach ist, wie immer behauptet wird. Mein wesentliches Problem ist der Ton. An sehr vielen Stellen liest sich die Kritik, etwa wenn etwas nicht wie angeworben funktioniert, als wenn der Autor sehr frustriert ist. Stellenweise hatte ich als Leser das Gefühl, dass der Autor seine Frust an Entscheidungsträgern und einzelnen Design- und Software-Entscheidungen nur im Buch auslässt.

Gepaart wird dies durch den hohen Einsatz von Umgangssprache, was meinen Eindruck vom Buch weiter senkt. Zu Beginn fand ich den Schreibstil ja ganz nett: Die Probleme und Irrtümer im Umgang mit Container-Infrastrukturen werden klar, deutlich und auch hart benannt. Auf die Dauer verbreitete sich bei mir das Gefühl, dass immer weiter Frust abgeladen wird. Zwei Beispiele für zu viel Slang, die sehr oft vorkommen: „Nö“ und „Würgaround“. „Nö“ wird sogar erschreckend oft in Überschriften von Absätzen verwendet. „Würgaroung“ (statt Workaround) kenne ich eher nur von alten Forenposts, wo es heutzutage auch kaum einer mehr verwendet. Meiner Meinung nach ist so ein Slang in einem professionellen Buch fehl am Platz und macht zumindest bei der Häufigkeit wie hier, keinen guten Eindruck.

Unabhängig von der Sprache ist der fachliche Umfang tadellos: Es ist sehr umfangreich und geht in sehr viele tiefe Eigenschaften, Eigenheiten und auch Probleme im Umgang mit den Technologien ein. Der Preis mit 79,90 € ist nicht gering, aber bei dem Umfang durchaus nachvollziehbar. Problematisch bei dem Themengebiet ist zusätzlich, dass sehr vieles in dem Buch sehr schnell veraltet. Dafür kann der Autor und der Verlag nichts, da die Welt der Container sich sehr schnell weiterentwickelt. Das Buch kam in der ersten Auflage im April 2020 und die von mir gelesene zweite Auflage im Oktober 2020 auf dem Markt. Ist also schon ein Jahr alt. In der Zwischenzeit ist viel passiert, so ist mittlerweile OpenShift 4 erschienen, was sich schon deutlich vom behandelten OpenShift 3 unterscheidet. Man muss sich also zusätzlich zu dem Buch noch separat auf den aktuellen Stand der Technik bringen.

Würde ich das Buch trotzdem empfehlen: Ja! Wer eine sehr gute Einführung in die Welt der Container möchte, kommt an dieses Buch nicht vorbei. Wichtig ist allerdings noch hervorzuheben, dass (sehr) gute Linux- und Netzwerk-Kenntnisse unabdingbar ist. Grundlagen zu diesen Themen werden nicht thematisiert, die muss man sich selbst aneignen. Wer sich dem Thema widmen sollte und nur grundlegende Kenntnisse mitbringt, wird es schwierig haben – und das ganz unabhängig von der verwendeten Lektüre.

Beste Broker fur Binare Optionen 2020:
  • Binarium
    Binarium

    Der beste Broker fur binare Optionen fur 2020!
    Ideal fur Anfanger!
    Kostenloser Unterricht!

  • FinMax
    FinMax

    2 Platz in der Rangliste! Zuverlassiger Broker.

Investition in binäre Optionen für Anfänger
Schreibe einen Kommentar

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: