Archiv der Kategorie: Linux

Raspberry Pi 4 Rest-Arbeiten

Ich Update den Pi mit sudo apt update und danach sudo apt upgrade. Es werden über 500 MB geladen und installiert, naja nach einem halben Jahr. Der OS Codename ist Bookworm, aktuell wäre Trixie, man kann aber nicht von einer zur anderen Version springen, leider.

Ich riskiere es und mache auch noch ein sudo apt autoremove, das listet nur Linux-Headers also Kernel die weg können, ich sage JA.

Ich starte den Pi neu mit shutdown -r (Neustart)

Ich suche nach einer Möglichkeit die 64GB SD-Partition auf die vollen 128GB der SD-Karte aufzublasen und finde schnell raspi-config das schon installiert ist. Das bietet unter  die Funktion Expand Filesystem, die genau dafür gedacht ist.

Ich drücke ENTER : es kommt KEINE textliche oder grafische Vor-Ansicht bei so einer wichtigen Aktion. Nur eine Meldung root Partition wurde auf volle Größe erweitert, Neustart erforderlich, der auch direkt angeboten wird … bibber

raspi-config – Partitions-Erweiterung

Danach teste ich mit lsblk die Partitions-Größen

lsblk – Partitionen

Sieht ja erstmal OK aus, ich gebe noch ein df -h /home/pi

df -h /home/pi

Das mache es dann ganz deutlich, Available 102GByte im Home-Directory, also auf dem gesamten root-Pfad.

Nein ist besser so, sonst werkelt der Pi nur auf der halben SD-Karte rum, was diese schneller altern läßt. Nach der Erweiterung kann der Pi auf der gesamten SD-Karte wirken.

 

Webserver Raspberry Pi 3 B+ Total-Crash

Was für ein Drama mal wieder. Nach Jahren treuer Dienste funktioniert plötzlich mein Raspberry Pi 3 B+ nicht mehr. Ich stele fest das die LAN Verbindung nicht mehr leuchtet. Dann fällt mir auf, das die ACT LED nix mehr macht. 

Sofort schreibe ich auf eine andere SD-Karte ein Raspi-OS-Image, nix, die ACT (Drive-Activitäten) LED ist tot. Kurz nehme ich den steinalten Raspberry Pi 2, alles gut mit der ACT-LED.

Nach intensiven Test’s bestelle ich einen Raspberry 4 B mit 1GB.

Lasset die Spiele beginnen

Der Pi 4 ist angekommen und ich stecke Hoffnungsvoll die alte 64GB SD-Karte rein, jau, er bootet in den Desktop. Fröhlich passe ich die IP-Adresse wieder an, teste, alles bestens. Und ab damit ins 19″-Rack … nix geht mehr, wieder alles zum Arbeits-PC um letztlich festzustellen – die 64GB SD-Karte ist TOT/DEFEKT/ENDE. Dabei hatte ich am Pi 4 vorm Umbau sogar einen SHUTDOWN gemacht und gewartet bis die Drive LED aus bleibt !!

TOTAL-KATASTROPHE, denn wie der Mensch so ist länger schon kein BACKUP mehr über’s LAN gesichert. Das letzte BACKUP stammt von 09-2025 :O 

So ein MIST jetzt beginnt wieder dieser ganze Dreck mit OS/APACHE/PHP/SSL/HTTPS-ZERTIFIKATE/MYSQL/WORDPRESS. Das ist ein tagelanges Gefrickel, oft ohne Sinn und Verstand.

Was ich versucht habe

Zuerst händisch wieder alles nach irgendwelchen kruden Anleitungen/Video’s zusammen-installiert. 

Dann nach Tag 1 finde ich durch Zufall ein IMAGE-File auch von 09-2025. Tja, dann bin ich ja gleich fertig. Da ich Images wenn überhaupt nur mit Clone/Rescue-Zilla erstellt haben kann, Kinderspiel…von wegen.

Ich habe bestimmt EINEN TAG damit verbracht sowohl mit Clonezilla als auch mit Rescuezilla das Image zurück zu spielen, KEINE Chance.

Clonezilla ist da mal die größte Enttäuschung. Das Teil listet das Save/Restore Directory nicht mal ansatzweise komplett, findet das Image gar nicht obwohl es vor der Nase liegt.

Rescuezilla ist da viel schöner, wunderbar kann man mit der Maus navigieren. Es findet das Image ohne Probleme. Leider endet die Freude beim zurückspielen. Erst werden Partitionen generiert, dann kommt die Haupt Partition dran…ERROR. Rescuezilla meckert weil beim Ziel-Datenträger ein paar hundert Bytes zu viel/wenig da sind. Absolut lachhaft, altes Image stammt von besagter 64GB SD-Karte und soll neu auf eine 128GB SD-Karte. Wo kann es hier kapp oder eng werden ?!?!?

Jetzt kommt der größte Witz, die USB-Abbilderstellung von Linux Mint schafft es ganz easy das Image zurückzuspielen. Leider enthält der wp-content-Ordner von WordPress danach aber viel zu wenig Daten. 

Jedenfalls läuft der Pi 4 erstmal mit diesem Image. Es beginnt eine Odyssee des Hacken’s per Putty, Rechte neu vergeben, Passworte vergeben, Datenbank manuell erstellen dann Import eines Datenbank-Dump’s. Dann noch WordPress die DB-Zugangsdaten beibringen.

Endlich nach gefühlt 3 Tagen sehe ich Licht am Ende des Tunnels. 

Ich sehe meine Webseite, natürlich verstümmelt ohne Grafiken. Durch totalen Zufall ist der letzte erhaltene POST einer über Zertifikat Erstellung, ich folge meinem eigenen Schrieb und siehe da die Seite wieder in voller Pracht.

Dann stelle ich in WordPress unter Einstellungen/Allgemein diese beiden Seiten-Links um lösche /wordpress hinter der URL, bibbernd speichere ich. Erst klappt danach nix mehr, kriege es aber schnell wieder hin. 

Dann machen natürlich wieder die Permalinks Probleme, EINFACH funktioniert, BEITRAGSNAME geht schlecht/nicht weil bestimmte Links damit nicht funktionieren. Genau das hatte ich schon mal und zum Glück hatte ich notiert wie die Lösung war.

In der /etc/apache2/apache2.conf muß unter <Directory var/www/> Allow Override auf ALL stehen. Danach mysql (mariaDB) und Apache durchstarten. Leider funktionieren danach die Permalinks mit Beitragsname genau so wenig.

Permalinks und Apache-Rewrite
.htaccess Rewrite manuell hinzugefügt

Weil WordPress normalerweise bei jeder Permalink Änderung + Speichern eine versteckte .htaccess generiert, das aber dieses mal NICHT tut, erstelle ich mühsam Eine per Hand im html-Ordner

Und siehe da, mit der Permalink-Einstellung auf Beitragsname funktioniert es nun wieder. 

Und ich wette das hat mit den Schreibrecht-Problem zu tun das ich nun beschreibe.

WordPress kann nicht Uploaden/Plugins Updaten usw.

Was ist das nun wieder, WordPress meckert herum will ich Bilder (Medien) uploaden.

Keine Server Schreibrechte

Auch nach intensiver Recherche finde ich keine Lösung. Und natürlich mache ich ein chown rekursiv für verschiedenste Ordner.

Nächster Morgen

Es kann so einfach sein, chown ist die Lösung. Ich habe (warum auch immer) WordPress 2x, einmal direkt im html-Ordner und einmal in html/wordpress. Welches ist nun das ECHTE ?

Rekursiv, also incl. aller Unterordner, gebe ich folgenden Befehl ein :

sudo chown -R www-data:www-data /var/www/html/wordpress/wp-content/uploads

Danach starte ich den Apache einmal durch mit :

sudo systemctl restart apache2

Man kann immer noch keine Bilder hochladen :/

Dann sage ich mir nimm mal den kompletten html-Ordner incl. ALLEM :

sudo chown -R www-data:www-data /var/www/html
sudo systemctl restart apache2

ES GEHT WIEDER – WordPress kann Uploaden und es gehen auch Plugin-Updates wie gewohnt.

Nun will ich schauen WO die Bilder-Upload’s nun landen. 

Leider kommt durch das chown plötzlich mein pi User nicht mehr in den html-Ordner. Ich füge den pi User der Gruppe www-data hinzu mit :

sudo usermod -a -G www-data <Benutzername>
sudo systemctl restart apache2

Nö, geht immer n.n. Da fällt mir ein, das man User Ab/Anmelden muß damit Änderungen wirksam werden. Und es funktioniert, mein Pi-User kommt wieder auf html und alle Unterordner.

Ich schaue nach wo nun der neu kreierte 2026/03-Ordner liegt und es ist /var/www/html/wp-content/uploads/2026/03 

Also dürfte das WordPress in html/wordpress irrelevant sein. Bevor ich den Ordner lösche benenne ich Ihn testweise um.

sudo mv wordpress / aaaa/

WordPress läuft weiter, ich lösche den aaaa-Ordner mit  sudo rm -R aaaa
Nachtrag

Und sieh mal einer an, nachdem ich eben die Permalink-Einstellungen änderte/speicherte hat WordPress in MEINE hand-getippte .htaccess die gleichen Einträge nochmals eingetragen. Ich lösche dort als mein mühsam hand-getipptes raus weil doppelt.

  

 

 

 

Ein trusted SSL Zertifikat für den Pi Apache

Eben mal die „reachability“ von 64kbyte.zapto.org geprüft, diese Meldung kommt :

Das SSL Zertifikat muß von einer Trusted Platform erzeugt werden. Ich entscheide mich per Letsencrypt ein neues ‚ trusted‘ Zertifikat zu erzeugen.

Installation des Certbot für den Apache :

sudo apt update
sudo apt install python3-certbot-apache

Zertifikat erzeugen (es kommen Fragen z.B. Domain) :

sudo certbot  – -apache

Wo liegen die Zertifikat(e) :

Zertifikat /etc/letsencrypt/live/64kbyte.zapto.org/fullcain.pem
Key /etc/letsencrypt/live/64kbyte.zapto.org/privkey.pem

This certificate expires 20-12-2025 (in 90 Tagen verfällt das Zertifikat).

Am Ende muß ich noch entscheiden „Which virtual host would you like to choose?“ 

1: 000-default.conf
2: default-ssl-conf

Nach kurzer Recherche sagt die Ki „nimm den mit ssl“ und die Ki würde uns doch nie schaden oder ?

Es erscheint „Congratulations! You have successfully enabled HTTPS on https://64kbyte.zapto.org

Ich erstelle noch einen zeit gesteuerten Job um das Zertifikat Wöchentlich zu erneuern.

sudo crontab -e

wähle den NANO

und schreibe in das File :

0 0 * * 1 certbot renew

Dann Speichern und schließen.

Anschließend mache ich einen Check meiner Seite :

https://www.ssllabs.com/ssltest/

Das dauert ein wenig ist dann aber voll GRÜN :

WordPress Permalink’s nur “Einfach”

Was ist das wieder für eine Gemeinheit ?

Seit ich meinen Pi Webserver neu aufsetzen mußte kann ich in den WordPress Einstellungen/Permalinks umstellen was ich will, es funktioniert ohne 404 Error nur “Einfach”.

Jeder, aber auch Jeder im Netz sagt “ist ganz einfach” – “einmal auf irgendwas umstellen, Speichern, wieder umstellen, Speichern – ALLES GUT”.

> FUNKTIONIERT ABER LEIDER NICHT <<<<

Nachdem ich vor Tagen geistig erstmal aufgegeben habe – heute nochmal ein Versuch.

Zuerst finde ich so Hinweise wie “chmod 777 .htaccess”, damit auch alles und Jeder schreiben darf (auch WordPress). Aber WordPress konnte immer in die .htaccess (unsichtbar im WordPress-Ordner) schreiben.

Jedes mal wenn ich von “Einfach” auf irgendwas anderes umstelle kommen 404 Error klicke ich irgendwas auf meiner Page an.

DER TIP

In der /etc/apache2/apache2.conf hiernach suchen :

apache2.conf

Dort das None durch All ersetzen und mit Strg + O speichern und mit Strg + x verlassen.

Nun einmal den Apache durchstarten mit : 

sudo service apache2 restart

UND ES FUNKTIONIERT ENDLICH WIEDER 🙂

Permalinks mit Post-Namen.

 

WordPress Apache SSL Zertifikat Drama

Was ich jetzt hier schreibe ist nur aus dem Gedächtnis wiedergegeben und das vom Hacking über eine Woche hinweg.

Was war passiert

Wenn ich das so genau wüsste, denn ich bin mir keiner Schuld bewußt. Jedenfalls lief meine Wesbeite (Diese) gar nicht mehr und das obwohl im No-IP Account meine korrekte Dynamische IP hinterlegt war und der Router unberührt blieb (Port Forwarding).

Irgendwie entdeckte ich das im Apache Status diesem scheinbar ein SSL Zertifikat fehlte oder leer sein soll und er deswegen nicht starten wollte.

Über eine Woche absolutes Chaos

Zuerst war es mir tagelang nicht so wichtig, dann plötzlich WordPress Entzugs-Erscheinungen, der Ehrgeiz packte mich. Und ich muß sagen WordPress scheint unzerstörbar, denn seit gefühlt 15 bis 20 Jahren habe ich noch keinen POST verloren.

Klar läuft ein Backup-Plugin das wöchentlich mal ein Backup erstellt. Ab und an lade ich dann mal eines runter zum sichern. Auch mache ich ab und an einen SQL-Dump um die Datenbank zu sichern.

Das Problem dieses mal war das ich weil der Apache nicht lief auch nix in WordPress machen konnte und ich kein sehr aktuelles SQL-Dump hatte aber immerhin ein recht junges WordPress-Backup.

Rettungsversuch Apache SSL Zertifikat

Natürlich versuchte ich zuerst eben ein SSL Zertifikat neu zu generieren, aber finde mal eine funktionierende Anleitung. Das klappte schon mal nicht. Irgendwann gab ich auf und befasste mich mit einer Neu Installation.

Raspberry neustes OS

Wenn schon dann muß ich eine neue SD-Karte (größer) mit dem neusten Raspberry OS bespielen. Das machte ich mit dem Raspberry Pi Imager. Mein OS war wirklich schon alt und ein kompletter Sprung on the Fly ist mit Risiken behaftet.

Ich weiß nicht wie oft (bestimmt 6-10x) ich die SD-Karte neu aufgesetzt habe. Das OS lief erwartungsgemäß sauber, aber es gibt da einige Änderungen seitens Raspberry.

Der Imager bietet sehr unauffällig vor dem Schreiben einige Optionen an, wo man schnell mal einfach weiter klickt. So mußte ich schmerzlich erfahren das es KEINEN User ‘Pi’ mehr gibt überspringt man es. Oder auch diese Sache mit dem SSL Zugriff, kann man abhaken in den Optionen.

Egal, nach mehreren Neu Beschreiben der SD Karte war die Basis gesetzt. 

Der Horror beginnt (und nahm kein Ende)

Apache, PHP, mariaDB, phpmyAdmin, WordPress, FTP-Server und was ich noch alles eben mal installieren. Eigentlich geht das gut findet man mal eine halbwegs moderne Anleitung. Dafür brauchte ich bestimmt 1-2 Tage von morgens bis Nachts.

Während all diesem Gefrickel fällt mir absolut unangenehm auf diese chown und chmod Linux Dinger. Das absolute Grauen, jeder sagt was anderes. Jede Software will eigen Rechte. Klar ist das echt sicher, aber das Handling ist würg.

Als dann die Basis Software drauf ist fehlt noch WordPress. Wahrscheinlich hätte ich den alten Inhalt ‘einfach’ (User Lese/Schreibrechte) kopieren können nach /var/www/http aber irgendwas hat mich veranlasst WordPress erstmal neu zu ‘installieren’ und dann über zu Kopieren.

Also WordPress tar.gz in den html Ordner down geloaded/entpackt. Der Apache lief auch (noch ohne SSL https) und WordPress Startseite lief.Per phpmyAdmin hatte ich eine leere Datenbank ‘wordpress’ angelegt.

Und jetzt kommt der Hammer.

Wie doof kann ich (WordPress-Programmierer) sein ?

Wirklich 2 Tage lang die simple Installationsseite wo oben der Datenbankname steht (tut es das wirklich ?) versucht zu absolvieren. 

Immer kommt eine Fehlermeldung ‘Datenbank nicht gefunden’ blabla. Irgendwann erkenne ich dann, der vorgefertigte ‘wordpress’ Schriftzug ist gar kein echter Eintrag im Feld Datenbank !!!

Das ist nur ein Schatten-Vordruck was sein könnte !!!!!!!!

Ich habe wegen der kaum erkennbaren Unterschiede (grauer Vordruck vs schwarz echter Eintrag) nicht realisiert das ich dort ‘wordpress’ rein schreiben muß !!!

Jedenfalls lief WordPress dann. 

Das DRAMA des Datenbank Import  

Oh mann ich finde keinen halbwegs aktuelle SQL-Dump, was nun. Nach vielen Querelen komme ich auf die Idee – starte den Pi mit der alten SD Karte um per Putty direkt in der mariaDB einen Dump des ‘Jetzt’ Zustandes zu erstellen. 

Hatte ich noch nie gemacht, wußte auch nicht das es sowas gibt. Klappte jedenfalls.

Ein Drama immer wieder ‘wie bekomme ich Files auf die neue SD Karte ? Klar habe einen Card-Reader aber diese verdammten Schreib/Leserechte. Irgendwann habe ich es dann immer so gemacht, die neue SD Karte in den Reader und was auch immer nach /home/pi kopiert.

Dann den neuen Pi wieder gestartet und per phpmyAdmin die ‘wordpress’ Datenbank importiert.

Das darf man sich wieder nicht so einfach vorstellen, weil in irgendwelchen phpmyadmin config Files steht man dürfe nur satte 2MByte hochladen. Ähm wir haben 2025 !!

Alles auf 50MByte hoch gesetzt. Mein Dump war gerade mal 15MB groß. Danach klappte der Import.

SSL

Da Webseiten heutzutage https:// haben müssen muß ich wieder Zertifikate erstellen usw. Außerdem ist WordPress auch auf https:// geeicht. Will ich im Detail nicht erklären, aber wieder ziemlich viel Gewurschtel.

WordPress Links funktionieren nicht

Irgendwann lief WordPress dann auch im alten Muster, ich war ganz erstaunt das sogar die Plugins da waren. Leider funktionierten keinerlei Links. Die POST’s waren auf der Hauptseite sichtbar. Klicke ich aber auf irgend etwas kommt ‘Not Found’ Apache Meldung. Als URL steht im Browser aber der gewünschte Post-Link.

Immer wieder auf Anraten in WordPress unter Einstellungen – Permalinks die Permalink-Struktur umgestellt und Gespeichert. Danach wieder zurück zur alten Einstellung und Gespeichert. 

Keine Besserung und ich finde auch KEINE Lösung.

Dann aus Verzweiflung stelle ich mal auf ‘Einfach‘ um speicher das und ES FUNKTIONIERT !!!!!!!!!!

Alles geht wieder Gallerien, In-POST Foto’s öffnen usw.

Danach probiere ich viele andere Permalink-Strukturen, keine funktioniert außer ‘EINFACH’

Dieses Umstellen der Struktur ändert beim Speichern die unsichtbare .htaccess Datei im WordPress Ordner selber. Der Apache richtet sich nach dieser Datei und schreibt URL’s um damit Sie im Browser lesbarer erscheinen.

Das ist nur ein ganz kurzer Außschnitt meiner Erlebnisse über bestimmt 5 Tage am Stück nur gehackt am Pi

Später

Oh, eben probiere ich mal ob’s am Handy funktioniert, ja, bis ich zufällig auf einen Post treffe, der einen Link zu einem anderen Post hat. Und der, man höre und staune, nicht automatisch beim ändern der Permalink-Struktur mit geändert wird. Da hat mal wieder ein WordPress Programmierer gut aufgepasst.

 

 

 

  

Linux 22.2 (Zara) Upgrade

Oh endlich mal wieder ein Versionssprung auf 22.2 Zara.

Wie schon so oft, war super schnell installiert und wie immer keine sichtbaren Veränderungen. Und das meine ich als Kompliment.

Zufälligerweise installiere ich auf parallel auf einem uralten (Celeron) Laptop eines Bekannten genau diese Linux Mint Version neu. Das klappt auch per USB-Stick gut.Ich bemerke das Gimp 2.1 installiert wird. Komisch auf meinem Arbeitsrechner ist doch schon 3.0.4 drauf ! Wieso wird am Laptop 2.1 installiert ?

Dann will ich ein paar Updates laden, geht aber nicht wegen Server Error 500, keine Internetverbindung. Hä, der Rechner ist doch Online, im Firefox rennt doch alles.

Ich probiere das gleiche auf dem Arbeitrechner, das Gleiche, die Update-Server sind nicht erreichbar. Habe ich so auch noch nie erlebt seit ich Mint nutze. Hilft wohl nur warten.

Stunden später … es geht wieder

 

 

GIMP 2.10.18 (und 3.x.x)

Nach Jahren der Abstinenz und dem schmerzlichen Vermissen von Photoshop, komm probier nochmal GIMP. Erster Eindruck “erinnert an Photoshop”. Aber auch heutzutage hat GIMP nicht mal ansatzweise die schlichte Präzision des UI eines uralt Photoshop.

Aber immerhin, die scheinen es ja tatsächlich mal geschafft zu haben alles in EINEM Fenster unterzubringen.

Erstmal zwei Bilder (Ebenen) zusammen schmeißen. Dann mit dem Lasso-Tool mal was markieren. Bei Photoshop konnte man hier mit festhalten von Strg + Mausklicks exakte Markierungen ziehen. Zusätzlich konnte man die Softheit des Randes justieren.

Softer Rand scheint es hier nicht zu geben, allerdings muß man NICHTs festhalten um exakt mit der Maus zu markieren. Oh, softer Rand geht doch. Warum aber muß ICH links auf Werkzeugeinstellungen klicken um vom Journal wegzukommen. Nehme ich ein Werkzeug erwarte ich irgendwo IMMER dessen Parameter (bei PS waren Die immer oben).

Etwas Markiertes kopieren/einfügen erzeugt eine neue Ebene, korrekt. Leider ist es eine “schwebende Ebene” mit der man nichts machen kann. Wozu soll das überhaupt gut sein ?

Die Markierung ist leider nicht animiert, so ist schwer zu erkennen das die Markierung eine solche ist. Dachte eben die aktuelle Markierung wäre eingezeichnet. Nein, die Vormakierung verschwindet erst wenn eine Neue fertig geschlossen ist. Ah, eine schwebende Auswahl ist animiert, aber was ist schwebend ?

Mir fällt sofort ein Fehler auf, den ich nach so vielen Jahren nicht mehr erwarten würde. Die AUGEN/Ketten-Icons rechts in den Ebenen verschwinden einfach macht man eine Ebene unsichtbar. Wo vorher ein Auge war bleibt einfach ein leerer Bereich anstatt eines geschlossenen Auge zurück. Wie soll man später wissen was sich hinter einem leeren Feld verbirgt ?!

Klonen eine meiner Lieblingsfunktionen, erster Eindruck, funktioniert ganz gut, hat viele Parameter.

Na und Schlagschatten sind einfach unabdingbar. Zu Finden unter Filter/Licht und Schatten. Weichheit, Größe, Richtung, Deckkraft, alles einstellbar. Hat man einen Schatten erstellt und will daran Parameter verändern, finde ich aber keinen direkten Zugriff mehr darauf. In den Ebenen Eigenschaften gibt es sogar ein Feld Filter, das ist aber leer.

Habe ich z.B. einen Schlagschatten auf einem TEXT erstellt und editiere den Text nachträglich, geht sogar der Schatten-Filter verloren (wird auch so angekündigt). Das ist aber erbärmlich.

Also Schatten erstellen und nachträglich Ändern geht nicht.

Ich geh mal in die Einstellungen, weil mir die Optik von GIMP nicht gefällt. Alles grau in grau, wofür haben wir Millionen Farben ?

Unter Oberfläche/Thema nehme ich System anstatt Dark. Schon besser, nun sind Slider farbig und der Text leicht größer.

Dann unter Oberfläche/Symbol-Thema nehme ich Color anstatt Legacy. Wow, farbige Icons, Fortschritt, Science-Fiction.

Nach ein paar Wochen (ohne mit GIMP was zu machen)

Ich entdecke die intelligente Schere, und Die funktioniert mal echt gut (so der erste Eindruck). Linien zwischen zwei Punkten kann man beliebig fein justieren (schön wär’s). Ist die Markierungs-Linie fertig hat man aber KEINE Auswahl die man kopieren könnte. Man muß erst ENTER drücken um aus der Linie eine Markierung (animierte Linie) zu machen. Warum einfach wenn’s auch kompliziert geht.

Was mich an der Intelligenten-Schere richtig stört ist das man Linien zwischen 2 Punkten nicht softer machen kann. Diese sind oft sehr zackig. Hier müsste es einen Parameter “Soft” geben.

Strg + C, Strg + V den markierten Bereich eingefügt als schwebende Ebene. Unten rechts kann man mit dem + Symbol daraus eine echte Ebene machen. Hat geklappt, dann aber wieder nicht.

Ich nehme ein simples Bild, markiere mit der Schere was, drücke ENTER und kopiere/füge ein. Das Eingefügte ist LEER !!!

Nach x Versuchen sehe ich durch Zufall beim Kopieren oben rechts tut sich was. Ach da erscheint eine Miniatur der Zwischenablage. Da ist es doch. Ich ziehe die Miniatur mal in die Arbeitsfläche, klappt. Leider hätte ich das Eingefügte gerne exakt an der Original-Position. Ein Nachrücken kostet Zeit und nervt.

Nachdem etwas das normalerweise eine Sekunde (PS) dauert, nach 30min geschafft ist möchte ich das Eingefügte verformen.

Geht ganz gut mit der Käfigtransformation. Aber warum kommt man über diesen dämlichen gelb/schwarzen Rahmen nicht hinaus, was soll das ?!

Nach wieder 30min hab ich’s. Man kann unter Ebene/Ebene auf Bildgröße den Rahmen aufblasen. Wozu es auch immer gut sein soll Ebenen-Grenzen haben zu müssen.

Ein wenig Radieren, warum hat der Radiergummi die riesige Form der Umrandung von irgend etwas Markiertem. Schlimmer noch nirgends sehe ich Formen des Radiergummis wie z.B. ein normaler Kreis.

Es ist einfach grauenhaft wie man sich hier jede noch so simple Funktion erlesen/erarbeiten muß. Und ich schätze wenn man es mal hat, dann aber Wochen vergehen weiß man nix mehr und fängt von vorne an.

Leute! GIMP ist wie LINUX selber auch nach Jahrzehnten ein Krampf. Bei Photoshop wusste ich ein paar Tastenkombi’s und das war’s aber auch, es flutschte. GIMP hakt überall. Funktionen sollten in jeder Situation ersichtlich/verständlich (intuitiv) sein.

Davon abgesehen ist die reine Performance von GIMP echt übel. Alles scheint so träge zu sein und die GUI ist ziemlich unpräzise. Und wir haben 2025 und damit viel bessere Rechner. Trotzdem war Photoshop gefühlt auf damaligen Rechnern deutlich schneller wie GIMP auf einem heutigen PC. Man hat das Gefühl der Code ist schlecht geschrieben/compiliert.

Alleine das Menü-System, oftmals fährt man mit der Maus Menü-Einträge ab, steht mit der Maus fett über einem Eintrag, er wird aber nicht aktiv. Sowas wirkt einfach unfertig.

Scaling

Das ist das Unprofessionellste überhaupt. In Photoshop konnte man nach Belieben Scalen, ohne großartige Quali-Verluste. Denn Photoshop behielt im Hintergrund IMMER die Original Kopie. Und von Dieser wurde dann einfach umgerechnet.

Nicht so GIMP. 1x Scaling geht immer, klar, aber dann schon beim zweiten Scaling sieht man erhebliche Qualitäts-Einbußen. Was muß das schwer sein Originale im Hintergrund zu halten. Und sei nur eine Option in den Einstellungen.

Das ist extrem primitiv.

GIMP 3.x.x (05-2025)

Wow, endlich keine schwebenden Ebenen mehr, einfach Copy/Paste und eine neue echte Ebene ist da, geht doch.

Schatten

Das ich das noch erleben darf, Schatten die wirklich mal Schatten sind. Und sogar nach editierbar.

Weil Schatten in vorherigen GIMP-Versionen so besch(/& waren habe ich immer eine Ebene dupliziert und Diese unter Farben/Werte auf SCHWARZ gedreht. Danach die Ebene nach belieben vergrößert, mit einem Filter weich gezeichnet und die Deckkraft justiert. Ganz einfach also, kaum Mehraufwand.

Leider gibt es keine Möglichkeit aus dem Schatten Fx einer Ebene eine “eigene Ebene” zu machen. Das ging mit Photoshop schon vor 20 Jahren. Cool bei PS war auch das man einfach im Bild den Schatten mit der Maus packen und verschieben konnte. Das ist viel simpler als den mit X/Y Balken zu platzieren.

Davon abgesehen (vermutlich bin ich zu dumm für GIMP) ging gestern plötzlich Schatten-Filter nicht mehr. Menü-Einträge waren ausgegraut. Keine Ahnung warum, mußte meine Arbeit dann einstellen. Ist doch klasse.

Vordergrundauswahl

Feine Sache das. Einen auszuschneidenden Bereich grob umzeichnen, dann das Auszuschneidende grob Pinseln, macht Spaß. Und das Auto-Markieren geht auch erstaunlich gut. Aber wie so oft gibt es immer wieder Bereiche in denen nachgearbeitet werden muß. Und da kann GIMP eigentlich nix dafür, es ist halt für eine Maschine viel schwerer Umrisse zu erkennen.

Die Konsequenz daraus ist aber, die Nachbearbeitung dauert so lange, das man es besser gleich mit dem Lasso per Hand ausgeschnitten hätte. Denn eben weil die Kanten oft in und außerhalb von etwas Auszuschneidenden liegen muß man dann nacheinander mit + Bereiche hinzufügen UND dann auch noch mit – Bereiche wegnehmen.

Auch stören mich diese übertrieben vielen Rahmen/Auswahl-Markierungen. Klar, man kann die unsichtbar machen und man muß ja auch mal sehen was man markiert hat. Aber bei PS ging das mit einer Tasten-Kombi (glaube Strg + H für Hide), das war’s. Bei GIMP gibt es 6 SECHS Arten von Linien-Typen !!

Perfektion

Mal eben eine neue Datei generiert, ich will einen Text einfügen. Ich will dessen Farbe ändern. Im Moment als ich das Farbfeld klicke, poff, GIMP ist weg.

Krass auch, ziehe ich die linke Tool-Leiste immer breiter nach rechts, scheint das Farbfeld endlos weiter zu gehen. Das dürfte wohl schon ein Absturz-Grund sein.

Einen zu großen Layer eben mal skalieren. SHIFT + S … oh, kein Handle greifbar. JA, man kann mit den Zahlenfeldern spielen aber irgendwie unprofessionell. Oder wieder skalieren bei greifbaren Rand-Handles, schade bewegen (Move-Handle in der Mitte nicht erreichbar) geht nicht.

Schmerzhaft vermisse ich einen Auto-Scroll. Sei es beim Markieren, Bewegen ect.

 

 

 

 

 

 

 

Linux MINT und CAJA (Endlos-Problem seit MINT V.21)

Was ist das ein endloses Ärgernis mit CAJA. Und das seit ich auf MINT Version 21 upgradete.

Man kann das CAJA Verhalten nur als “Deep-Scan” bezeichnen. CAJA fängt nach Lust und Laune an irgendwelche Directorys zu scannen. Das wäre ja noch verzeihlich wenn nicht die komplette CPU-Leistung abgezogen würde. Verdammt wer hat diesen Mist programmiert ?!

Der USER des PC hat meiner Meinung nach erstmal das absolute Vorrecht über die CPU-Power !! Es kann ja im Hintergrund gescannt werden, aber bitte dezent. Und auch dieses Scannen sollte abschaltbar sein. Mir würde es absolut reichen wenn aktuell geöffnete Ordner “refresht” werden. Ich sehe die Ordner, arbeite damit und das reicht.

WARUM mach CAJA das nun seit Jahren. Man ist mitten in der Arbeit, plötzlich beginnt der Scan (HDD-LED flickert ständig) und in der Systemüberwachung liegt CAJA mal wieder bei 96%

Arbeiten macht so keinen Spaß mehr. Und die CPU-Last läßt oft auch nicht nach wenn man alle Ordner schließt.

Das Problem ist seit Jahren bekannt und wird überall im Netz diskutiert, aber KEINER weiß genau warum sich CAJA so verhält geschweige denn wie man das Problem beseitigt.

Heute wieder, morgens stundenlang gesurft, dann plötzlich von einem Moment zum Anderen geht die CPU-Last von CAJA gegen 100%. Das scheint sich aber immer nur auf EINEN CPU-Kern zu beziehen, der ständig wechselt. Das System an sich ist schnell (z.B. wenn ich GIMP starte). Also ist mit der CPU-Last die in der Systemüberwachung (oder auch htop) angezeigt wird gar nicht eine Gesamt-Last gemeint.

Es wird immer gemunkelt es wäre das Thumbnailing von CAJA im Hintergrund, mag ja sein. Lege ich irgendein Bild auf den Desktop wird kurz darauf dessen neu generiertes Thumbnail in ~/.cache/Thumbnails und dessen Unterordnern abgelegt.

Heute aber fällt mir (eigentlich ist es immer so) auf, das alle Fenster eine Spur am Bildschirm hinterlassen. Und zwar nur in CAJA Fenstern, also auch auf dem Desktop. Andere Fenster bleiben sauber. Klickt man in der Taskleiste irgendein Programm an wird dieses sauber angezeigt und ist funktional. Klickt man aber auf einen Ordner (CAJA) wird nur der Fenster-Rahmen (scheinbar) ohne Inhalt angezeigt. Bewegt man das Fenster zieht es den (zufälligen) grafischen Hintergrund mit. Will ich einen neuen CAJA-Ordner öffnen geschieht NICHTs. Das hat ja eigentlich nichts mit Thumnails zu tun. Bei mir ist jedenfalls ein proprietärer NVidia-Treiber installiert.

Und wie so oft, den CAJA Task killen hilft wunderbar, nur sind dann alle geöffneten Ordner weg. Und alleine alle wieder zu öffnen nervt schon.

Aber egal wie sehr man auch im Internet sucht, NIEMAND weiß Abhilfe. Und das Problem existiert mal locker seit 2012 !! Allerdings wird überall immer nur über CPU-Load geschrieben und das sah ich auch lange so. Aber wie oben geschrieben “die Last bezieht sich auf einen CPU-Kern”. Eigentlich arbeitet das System recht frei.

Ich mache immer alle Updates, so etwas müsste doch mal beseitigt worden sein. Liegt es evtl. am Grafiktreiber ?! Aber ich schreibe diesen Text hier gerade im FF, während CAJA seit Stunden streikt. Top Darstellung, alles gut im FF und allen anderen Programmen.

Nun kommen einem ja heutzutage die merkwürdigsten Vermutungen. NVidia gibt keine Daten Richtung Linux-Gemeinde preis. Will NVidia einem evtl. Linux vermiesen ? Aber dafür tritt der Effekt zu regelmäßig auf. Man kann immer drauf wetten in jeder Session passiert es mindestens 1x oder mehr. 

Ich meine das wäre vor viele Jahren nach einem MINT Versionssprung Upgrade aufgetreten, vorher war alles Jahre OK. Ich suche das mal hier, habe das irgendwo im BLOG geschrieben ….

… ich finde sowas hier :

vom 21.1.2023

Eben komme ich zum Rechner zurück, klicke zwei unterschiedliche CAJA-Ordner (vor Stunden geöffnet) an. Es erscheint keine Inhalt, sondern nur der hauchdünne Fenster-Umriß. Das ist mal was Neues, hatte ich so n.n.

Oh, wie ich gerade feststelle ist deren Inhalt nicht leer, sondern enthält zufälligerweise den grafischen Inhalt vom ShotCut-Programmfenster. Also sowas habe ich wirklich noch nie in MINT gehabt. Auch das drücken von F5 hilft nicht. Schließen lassen sich die Fenster auch nicht. Also scheinbar mal wieder ein CAJA-Hänger. Und ich dachte das wäre endlich mal vorbei nach den letzten Updates. Nach beenden des Prozess geht wieder alles, wie üblich.

oder das hier :

Vor der MINT Version 21 war zum Thema “CAJA läuft stabil” noch alles OK. Ab dann zeigte CAJA aber regelmäßig Hänger. Das kann man einfach temporär beseitigen indem man den Prozess beendet (kill). CAJA wird von selber direkt wieder gestartet, da der Desktop auch eine CAJA-Instanz ist. Auf die Dauer ist es dennoch nervend.

Da steht’s ja, mit der MINT Version 21 fing es an.

Seit meiner Ur-Installation habe ich MINT nie wieder neu (clean) installiert. Will ich nicht, werde ich auch nicht probieren. Was wäre es toll wenn es einen System-Check aller wichtigen Komponenten gäbe.

Und CAJA läßt sich nicht mal eben deinstallieren und wieder installieren, es ist DIE wichtige Komponente des System’s.

Hier finde ich noch etwas pauschales im Netz, aber gut ausgedrückt :

Caja, der Dateimanager in MATE, kann Grafikfehler im Fensterinhalt haben. Mögliche Ursachen sind Probleme mit der Grafikkarte oder dem Grafiktreiber, Konflikte zwischen verschiedenen Softwarekomponenten oder einfach ein Bug in der Anwendung. Um das Problem zu lösen, kann man versuchen, den Grafiktreiber zu aktualisieren, die Grafikkarte zu wechseln, oder Caja neu zu installieren. Auch eine andere Desktop-Umgebung könnte helfen, um zu sehen, ob das Problem nur in MATE besteht. 
CAJA bremst endlich mal direkt sichtbar

Habe stundenlang einen Ordner auf, in dem sich eher gemächlich Medien-Files ansammeln. Während der gesamten Zeit keine CAJA CPU-Last. Als ich meine Arbeit beende dann plötzlich 48% CPU-Last, ich schaue Minutenlang zu. Dann komme ich auf die Idee den Medien-Ordner einfach mal zu schließen. Auf den Schlag ist die CPU-Last weg.

WAS macht CAJA in diesem Ordner ??

Während der Last ist immer wieder eine Prozess CAJA zu sehen , unter “Wartender Kanal” in der Systemüberwachung, der sich “do_poll.constprop.0” nennt. Der taucht aber auch massenweise in anderen Prozessen auf.

“Nur für Dateien kleiner als”

Habe nun mal in CAJA/Einstellungen/Vorschau unter “Nur für Dateien kleiner als” die File-Größe mal von Original 2GB auf 100MB mal deutlich verkleinert. Mal abwarten …

Interessanter Effekt entdeckt

Ein paar Tage später, es sind ein paar Ordner offen. Plötzlich bemerke ich wieder das System ist träge, oh, MINT scannt wieder, die HDD-LED ist aktiv.

Ich schließe stückchenweise die Ordner. Beim Schließen des letzten Ordner dann, LED ruhig. In dem Ordner liegen nur Video’s. Ich verkleinere nochmals die Filegröße auf 10MB, bringt NIX. Interessant aber das nur gescannt wird wenn der Ordner geöffnet ist, schließt man Ihn hört sofort der Scan auf. Das kann ich beliebig reproduzieren.

Ich Verschiebe mal einen großen Teil der Video’s auf eine USB-HDD. Bringt auch nix, obwohl nur noch knapp 20 Video’s im Ordner sind wird fleißig gescannt. Was macht das System daran so lange ?!

Auch interessant, als noch viel mehr Video’s im Ordner waren arbeiteten ALLE Cores im Mittel bei 60%, nach dem verkleinern dann nur noch 30% CPU-Last.

Es ist sowieso ein Witz, das irgendein SUB-Prozess gnadenlos ALLE Cores benutzen darf und so das System wirklich runter zieht. Ich sag’s nochmal welcher Programmier-HONK ….

Ich mache einen Neustart und öffne direkt besagten Ordner, der Scan geht direkt wieder los. Ich Kopiere nun mal die 20 Files in einen neuen Ordner und öffne Diesen, kein Scan. Ich öffne den Ur-Ordner, kein Scan mehr wo eben noch auch nach einem Neustart kräftig gescannt wurde !!

Das Einzige was sich geändert hat an den Files im Ur-Ordner ist der Eintrag der Zugriffs-Zeit, denn es wurde ja beim Kopieren auf Sie zugegriffen. Das scheint irgendeinen Auslöser zu sein.

Schöne Erkenntnis, bringt nur nix … außer ich beobachte weiter.

Stunden später

Nach einer heftig langen Umcodierung plötzlich dann CAJA bei 96% aber auf ganz andere Art und Weise. Es ist nämlich immer nur EIN Core auf Volldampf und immer nur für kürzere Momente, dann wechselt CAJA auf einen anderen Core, klappert alle Core’s ab. Trotzdem geht dann nicht mehr viel. Fenster ziehen Schleier hinter sich her und falschen Inhalt mit.

Die HDD-LED ist unaufgeregt, hat also mit dem Directory-Scan nix zu tun. Was CAJA hier tut bleibt rätselhaft. In der Syslog Datei steht ständig was von BLOCK und IP-Adressen, aber das belastet die CPU doch nicht.

 

 

 

yaVDR 0.62 (AutoRemove AutoClear)

Nach langer Zeit mal wieder ein “sudo apt-get autoremove” und “autoclear gemacht mit unguten Erinnerungen.

Und tatsächlich lande ich nach einem Reboot in der Vollbild-Konsole – juchuuu !!

Irgendwo hier in meinem Blog steht aber wie man das Grund-System reparieren kann…such…find

https://64kbyte.zapto.org/yavdr-0-62-updat…ief-nach-monaten/

Der Wiederherstellungs-Befehl lautet :

sudo apt-get install yavdr-essential

Danach geht auch scheinbar alles bis auf die Fernbedienung. Nach einigen Versuchen, gebe ich auf, nehme die Tastatur. Das geht auch ist aber deutlich umständlicher.

Nach gefühlt einer Woche, dann plötzlich ohne mein zutun geht die Fernbedienung wieder als wenn nichts gewesen wäre.

ES LEBT !!!!!!!!!!

ANSIBLE (ab yaVDR 0.7)

Ich muß mich noch mal auskotzen. Habe 0.7 vor geraumer Zeit testweise installiert, was ein Albtraum war von wegen Umständlichkeit. Erst eine UBUNTU-Server Version saugen/installieren. Aus der ANSIBLE-Doku gehen wichtige Dinge wie Partionieren (Aufteilung/Größen) gar nicht hervor. Auch werden oft wichtige Frage-Optionen nicht geklärt.

Egal, nach der UBUNTU-Server Installation, dann viele Befehle zur yaVDR-Installation eingetippt, es folgt ein schier unendlicher Installations-Vorgang.

Irgendwann jedenfalls lief yaVDR 0.7, es folgte DIE ERNÜCHTERUNG : Welche Voll-Deppen haben das (mit Version 0.62) schöne alte, perfekte System so verhunzt ?!

Kein SideBar-Menü mehr, riesige Fenster-TITELLEISTEN, nirgends ein brauchbares Menüsystem in dem man mal etwas anpassen könnte (z.B. die dämlich riesigen Titel-Leisten). Und dann noch ein Horror TEARING (Bild-Zerreißung). Bei YouTube auf jeden Fall, im Live-TV weiß ich nicht mehr.

Gleichzeitiges Fernsehen und Surfen mit FF war irgendwie kaum mehr handhabbar.

In SUMME wie kann man ein Traum-System so besch$%&/eiden konvertieren ?!! Warum gibt es kein DVD-Install-Image zum Download mehr ? Saugen, Brennen, installieren, fertig. OK, das mit einem Zusatz DVD-Laufwerk muß nicht sein, kann man ja aber nach Installation wieder ausbauen.

Warum gibt es Niemanden der es schafft yaVDR 0.62 irgendwie auf ein modernes UBUNTU zu portieren ? 

Warum sage ich das?

Weil das uralte UBUNTU 14.04 so “langsam” leicht veraltet ist. Ich habe es neulich geschafft immerhin ein AppImage des letzten FF für UBUNTU 14.04 auf die Kiste zu speichern. Dieser FF wird von mir seit dem immer per Hand gestartet. Das lief bis vor wenigen Wochen klasse. Ich konnte wieder aktuelle Webseiten ohne Probleme ansehen. Bis es Mozilla gefiel wichtige Zertifikate ablaufen zu lassen. Es poppten Warnungen auf “Achtung – Zertifikate werden demnächst deaktiviert – dann gehen AddOn’s nicht mehr”.

Das passierte dann tatsächlich seitdem liegen wichtige AddOn’s deaktiviert herum, DANKE Mozilla !! Keinen Dark-Modus mehr (Webseiten ätzen einem die Augen raus) und dank deaktiviertem Werbe-Blocker zusätzlich viel bunte animierte Werbung.

Was ich sooo komisch finde :

KEINER auf dem Planeten juckt das. Auch über dieses neumodische und in meinen Augen völlig untaugliche ANSIBLE-Gedöns regt sich keiner auf. Ich könnte ja noch verstehen das heftig über ANSIBLE Diskutiert wird, aber man findet so gar nix. Das wäre mir auch noch egal, wenn sich nach Monaten/Jahren die ANSIBLE nun existiert per Update mal was verändern würde. Neulich nochmal die ANSIBLE SSD rein gehängt (und die 0.62er SSD abgeklemmt). Dann Updates gemacht, kein Unterschied, ja leckt mich.

Wieder die SSD’s ab/angeklemmt und 0.62 wollte nicht mehr laufen !!!! Ähhh ich hatte die ABGEKLEMMT !! Irgendwie habe ich die 0.62 natürlich wieder zum laufen gebracht.

 

 

Linux MINT 22 (Wilma) USB NTFS Mount Probleme

Es ist soweit, für das Thema muß ich ein eigenen Post schreiben.

Das so etwas in 2024 noch möglich ist …

Neulich händisch auf Mint 22 (Wilma) UpGeGraded. Alles schien zuerst wie immer, bis ich dann mal eines meiner mehreren USB-HDD Laufwerke einschaltete. Es kam ein Mount-Error.

Teilweise half dann scheinbar das (immerhin sichtbare Laufwerk aber ohne Auswurf-ICON) angezeigte Laufwerk  einmal anzuklicken um es zu mounten. Ein anderes Laufwerk ließ sich so aber nicht mounten.

Dann stellte ich im “Laufwerke”-Programm in den Einhänge-Optionen aller USB-Drive’s “Vorgabe der Benutzersitzung” auf AUS, setzte den Haken “Beim Systemstart einhängen” und gab unter “Anzeigename” einen Label für das Drive ein.

Nach zusätzlicher Recherche im Netz stellte sich schnell heraus das der im 6er Kernel befindliche ntfs3-Treiber einen BUG hat !! Man sollte diesen deswegen auf die BLACKLIST setzen, was ich mit diesem Befehl auch neulich tat.

echo ‘blacklist ntfs3’ | sudo tee /etc/modprobe.d/disable-ntfs3.conf

Der Befehl schreibt den Text “blacklist ntfs3” in die Datei /etc/modprobe.d/disable-ntfs3.conf

Des weiteren soll der folgende Befehl NTFS-Laufwerke fixen, wobei ich absolut nicht verstehe warum das nötig ist. Denn alle meine USB-HDD’s haben über Jahre hinweg problemlos funktioniert.

sudo ntfsfix -b -d /dev/sdxx

Es wird aber noch schlimmer, denn wenn man nichts unternimmt zerstört der BUG fröhlich Laufwerks-Strukturen ect.

Es darf doch nicht wahr sein das man hier gezwungen ist selber aktiv zu werden !!! Der Fehler ist doch bekannt, warum fixt den Niemand !!? Stattdessen läßt man die User allein … selber ein paar Befehle eingeben die evtl. ein NTFS Laufwerk fixen oder aber ….

Nach ein paar weiteren Tagen, alles scheint gut, will ich mal eben das Mounten meiner USB-HDD’s Stück für Stück durchspielen.

Ich muß dazu sagen, den ntfsfix-Befehl habe ich bisher bei nur EINEM Laufwerk ausgeführt, weiß aber nicht mehr bei welchem.

Eine 2,5″ 5TB wird wunderbar angenommen. Auch speichere ich seit Tagen Daten darauf. Das heißt aber ja noch nicht das Diese auch i.O. sind. Trotzdem kann ich eben gespeicherte Filme abspielen und bis zu deren Ende spulen.

Nun zu den 3 x 3,5″-HDD’s :

Bei Einer kommt ein “Mount-Error” …

Eben mal nachgesehen ob der Text “blacklist ntfs3” noch in der /etc/modprobe.d/disable-ntfs3.conf steht … NEIN !!!

Ach du SCHE%&?

Schnell den oben stehenden echo Befehl nochmal ausgeführt danach geschaut ob “blacklist ntfs3” wieder in der Datei steht, JA !!

Hurtig Rebooten …

Wieder die Datei auf den Eintrag geprüft … JA der Text “blacklist ntfs3” steht noch drin. Trotzdem wird EIN eingeschaltetes Laufwerk nicht gemountet. 

Ich führe nun mal den ntfsfix-Befehl auf diesem Laufwerk aus, obwohl gesagt wird zum erfolgreichen mounten alleine würde der Blacklist-Eintrag reichen.

Der Befehl ist in einer Nano-Sekunde durchgeführt, danach schalte ich die HDD aus/ein.

So, den ntfsfix Befehl nochmal bei alles Laufwerken ausgeführt, ist aber wahrscheinlich unnötig. Es geht hauptsächlich um den buggy ntfs3 Treiber im Kernel.

Aktuell melden sich ALLE USB-HDD’s wieder sauber an.

Wichtig !! NTFS3 Treiber auf die Blacklist UND bei mir mußte ich USB-HDD’s im Laufwerke-Programm in den Einhängeoptionen den “Vorgabe …” Schieber auf AUS schalten, Haken bei “Beim Systemstart einhängen” und einen Anzeigename eingeben.