Archiv der Kategorie: Erfahrungsbericht

Ein trusted SSL Zertifikat für den Pi Apache

Eben mal die „reachability“ von 64kbyte.zapto.org geprüft, diese Meldung kommt :

Das SSL Zertifikat muß von einer Trusted Platform erzeugt werden. Ich entscheide mich per Letsencrypt ein neues ‚ trusted‘ Zertifikat zu erzeugen.

Installation des Certbot für den Apache :

sudo apt update
sudo apt install python3-certbot-apache

Zertifikat erzeugen (es kommen Fragen z.B. Domain) :

sudo certbot  – -apache

Wo liegen die Zertifikat(e) :

Zertifikat /etc/letsencrypt/live/64kbyte.zapto.org/fullcain.pem
Key /etc/letsencrypt/live/64kbyte.zapto.org/privkey.pem

This certificate expires 20-12-2025 (in 90 Tagen verfällt das Zertifikat).

Am Ende muß ich noch entscheiden „Which virtual host would you like to choose?“ 

1: 000-default.conf
2: default-ssl-conf

Nach kurzer Recherche sagt die Ki „nimm den mit ssl“ und die Ki würde uns doch nie schaden oder ?

Es erscheint „Congratulations! You have successfully enabled HTTPS on https://64kbyte.zapto.org

Ich erstelle noch einen zeit gesteuerten Job um das Zertifikat Wöchentlich zu erneuern.

sudo crontab -e

wähle den NANO

und schreibe in das File :

0 0 * * 1 certbot renew

Dann Speichern und schließen.

Anschließend mache ich einen Check meiner Seite :

https://www.ssllabs.com/ssltest/

Das dauert ein wenig ist dann aber voll GRÜN :

WordPress Permalink’s nur “Einfach”

Was ist das wieder für eine Gemeinheit ?

Seit ich meinen Pi Webserver neu aufsetzen mußte kann ich in den WordPress Einstellungen/Permalinks umstellen was ich will, es funktioniert ohne 404 Error nur “Einfach”.

Jeder, aber auch Jeder im Netz sagt “ist ganz einfach” – “einmal auf irgendwas umstellen, Speichern, wieder umstellen, Speichern – ALLES GUT”.

> FUNKTIONIERT ABER LEIDER NICHT <<<<

Nachdem ich vor Tagen geistig erstmal aufgegeben habe – heute nochmal ein Versuch.

Zuerst finde ich so Hinweise wie “chmod 777 .htaccess”, damit auch alles und Jeder schreiben darf (auch WordPress). Aber WordPress konnte immer in die .htaccess (unsichtbar im WordPress-Ordner) schreiben.

Jedes mal wenn ich von “Einfach” auf irgendwas anderes umstelle kommen 404 Error klicke ich irgendwas auf meiner Page an.

DER TIP

In der /etc/apache2/apache2.conf hiernach suchen :

apache2.conf

Dort das None durch All ersetzen und mit Strg + O speichern und mit Strg + x verlassen.

Nun einmal den Apache durchstarten mit : 

sudo service apache2 restart

UND ES FUNKTIONIERT ENDLICH WIEDER 🙂

Permalinks mit Post-Namen.

 

WordPress Apache SSL Zertifikat Drama

Was ich jetzt hier schreibe ist nur aus dem Gedächtnis wiedergegeben und das vom Hacking über eine Woche hinweg.

Was war passiert

Wenn ich das so genau wüsste, denn ich bin mir keiner Schuld bewußt. Jedenfalls lief meine Wesbeite (Diese) gar nicht mehr und das obwohl im No-IP Account meine korrekte Dynamische IP hinterlegt war und der Router unberührt blieb (Port Forwarding).

Irgendwie entdeckte ich das im Apache Status diesem scheinbar ein SSL Zertifikat fehlte oder leer sein soll und er deswegen nicht starten wollte.

Über eine Woche absolutes Chaos

Zuerst war es mir tagelang nicht so wichtig, dann plötzlich WordPress Entzugs-Erscheinungen, der Ehrgeiz packte mich. Und ich muß sagen WordPress scheint unzerstörbar, denn seit gefühlt 15 bis 20 Jahren habe ich noch keinen POST verloren.

Klar läuft ein Backup-Plugin das wöchentlich mal ein Backup erstellt. Ab und an lade ich dann mal eines runter zum sichern. Auch mache ich ab und an einen SQL-Dump um die Datenbank zu sichern.

Das Problem dieses mal war das ich weil der Apache nicht lief auch nix in WordPress machen konnte und ich kein sehr aktuelles SQL-Dump hatte aber immerhin ein recht junges WordPress-Backup.

Rettungsversuch Apache SSL Zertifikat

Natürlich versuchte ich zuerst eben ein SSL Zertifikat neu zu generieren, aber finde mal eine funktionierende Anleitung. Das klappte schon mal nicht. Irgendwann gab ich auf und befasste mich mit einer Neu Installation.

Raspberry neustes OS

Wenn schon dann muß ich eine neue SD-Karte (größer) mit dem neusten Raspberry OS bespielen. Das machte ich mit dem Raspberry Pi Imager. Mein OS war wirklich schon alt und ein kompletter Sprung on the Fly ist mit Risiken behaftet.

Ich weiß nicht wie oft (bestimmt 6-10x) ich die SD-Karte neu aufgesetzt habe. Das OS lief erwartungsgemäß sauber, aber es gibt da einige Änderungen seitens Raspberry.

Der Imager bietet sehr unauffällig vor dem Schreiben einige Optionen an, wo man schnell mal einfach weiter klickt. So mußte ich schmerzlich erfahren das es KEINEN User ‘Pi’ mehr gibt überspringt man es. Oder auch diese Sache mit dem SSL Zugriff, kann man abhaken in den Optionen.

Egal, nach mehreren Neu Beschreiben der SD Karte war die Basis gesetzt. 

Der Horror beginnt (und nahm kein Ende)

Apache, PHP, mariaDB, phpmyAdmin, WordPress, FTP-Server und was ich noch alles eben mal installieren. Eigentlich geht das gut findet man mal eine halbwegs moderne Anleitung. Dafür brauchte ich bestimmt 1-2 Tage von morgens bis Nachts.

Während all diesem Gefrickel fällt mir absolut unangenehm auf diese chown und chmod Linux Dinger. Das absolute Grauen, jeder sagt was anderes. Jede Software will eigen Rechte. Klar ist das echt sicher, aber das Handling ist würg.

Als dann die Basis Software drauf ist fehlt noch WordPress. Wahrscheinlich hätte ich den alten Inhalt ‘einfach’ (User Lese/Schreibrechte) kopieren können nach /var/www/http aber irgendwas hat mich veranlasst WordPress erstmal neu zu ‘installieren’ und dann über zu Kopieren.

Also WordPress tar.gz in den html Ordner down geloaded/entpackt. Der Apache lief auch (noch ohne SSL https) und WordPress Startseite lief.Per phpmyAdmin hatte ich eine leere Datenbank ‘wordpress’ angelegt.

Und jetzt kommt der Hammer.

Wie doof kann ich (WordPress-Programmierer) sein ?

Wirklich 2 Tage lang die simple Installationsseite wo oben der Datenbankname steht (tut es das wirklich ?) versucht zu absolvieren. 

Immer kommt eine Fehlermeldung ‘Datenbank nicht gefunden’ blabla. Irgendwann erkenne ich dann, der vorgefertigte ‘wordpress’ Schriftzug ist gar kein echter Eintrag im Feld Datenbank !!!

Das ist nur ein Schatten-Vordruck was sein könnte !!!!!!!!

Ich habe wegen der kaum erkennbaren Unterschiede (grauer Vordruck vs schwarz echter Eintrag) nicht realisiert das ich dort ‘wordpress’ rein schreiben muß !!!

Jedenfalls lief WordPress dann. 

Das DRAMA des Datenbank Import  

Oh mann ich finde keinen halbwegs aktuelle SQL-Dump, was nun. Nach vielen Querelen komme ich auf die Idee – starte den Pi mit der alten SD Karte um per Putty direkt in der mariaDB einen Dump des ‘Jetzt’ Zustandes zu erstellen. 

Hatte ich noch nie gemacht, wußte auch nicht das es sowas gibt. Klappte jedenfalls.

Ein Drama immer wieder ‘wie bekomme ich Files auf die neue SD Karte ? Klar habe einen Card-Reader aber diese verdammten Schreib/Leserechte. Irgendwann habe ich es dann immer so gemacht, die neue SD Karte in den Reader und was auch immer nach /home/pi kopiert.

Dann den neuen Pi wieder gestartet und per phpmyAdmin die ‘wordpress’ Datenbank importiert.

Das darf man sich wieder nicht so einfach vorstellen, weil in irgendwelchen phpmyadmin config Files steht man dürfe nur satte 2MByte hochladen. Ähm wir haben 2025 !!

Alles auf 50MByte hoch gesetzt. Mein Dump war gerade mal 15MB groß. Danach klappte der Import.

SSL

Da Webseiten heutzutage https:// haben müssen muß ich wieder Zertifikate erstellen usw. Außerdem ist WordPress auch auf https:// geeicht. Will ich im Detail nicht erklären, aber wieder ziemlich viel Gewurschtel.

WordPress Links funktionieren nicht

Irgendwann lief WordPress dann auch im alten Muster, ich war ganz erstaunt das sogar die Plugins da waren. Leider funktionierten keinerlei Links. Die POST’s waren auf der Hauptseite sichtbar. Klicke ich aber auf irgend etwas kommt ‘Not Found’ Apache Meldung. Als URL steht im Browser aber der gewünschte Post-Link.

Immer wieder auf Anraten in WordPress unter Einstellungen – Permalinks die Permalink-Struktur umgestellt und Gespeichert. Danach wieder zurück zur alten Einstellung und Gespeichert. 

Keine Besserung und ich finde auch KEINE Lösung.

Dann aus Verzweiflung stelle ich mal auf ‘Einfach‘ um speicher das und ES FUNKTIONIERT !!!!!!!!!!

Alles geht wieder Gallerien, In-POST Foto’s öffnen usw.

Danach probiere ich viele andere Permalink-Strukturen, keine funktioniert außer ‘EINFACH’

Dieses Umstellen der Struktur ändert beim Speichern die unsichtbare .htaccess Datei im WordPress Ordner selber. Der Apache richtet sich nach dieser Datei und schreibt URL’s um damit Sie im Browser lesbarer erscheinen.

Das ist nur ein ganz kurzer Außschnitt meiner Erlebnisse über bestimmt 5 Tage am Stück nur gehackt am Pi

Später

Oh, eben probiere ich mal ob’s am Handy funktioniert, ja, bis ich zufällig auf einen Post treffe, der einen Link zu einem anderen Post hat. Und der, man höre und staune, nicht automatisch beim ändern der Permalink-Struktur mit geändert wird. Da hat mal wieder ein WordPress Programmierer gut aufgepasst.

 

 

 

  

Linux 22.2 (Zara) Upgrade

Oh endlich mal wieder ein Versionssprung auf 22.2 Zara.

Wie schon so oft, war super schnell installiert und wie immer keine sichtbaren Veränderungen. Und das meine ich als Kompliment.

Zufälligerweise installiere ich auf parallel auf einem uralten (Celeron) Laptop eines Bekannten genau diese Linux Mint Version neu. Das klappt auch per USB-Stick gut.Ich bemerke das Gimp 2.1 installiert wird. Komisch auf meinem Arbeitsrechner ist doch schon 3.0.4 drauf ! Wieso wird am Laptop 2.1 installiert ?

Dann will ich ein paar Updates laden, geht aber nicht wegen Server Error 500, keine Internetverbindung. Hä, der Rechner ist doch Online, im Firefox rennt doch alles.

Ich probiere das gleiche auf dem Arbeitrechner, das Gleiche, die Update-Server sind nicht erreichbar. Habe ich so auch noch nie erlebt seit ich Mint nutze. Hilft wohl nur warten.

Stunden später … es geht wieder

 

 

GIMP 2.10.18 (und 3.x.x)

Nach Jahren der Abstinenz und dem schmerzlichen Vermissen von Photoshop, komm probier nochmal GIMP. Erster Eindruck “erinnert an Photoshop”. Aber auch heutzutage hat GIMP nicht mal ansatzweise die schlichte Präzision des UI eines uralt Photoshop.

Aber immerhin, die scheinen es ja tatsächlich mal geschafft zu haben alles in EINEM Fenster unterzubringen.

Erstmal zwei Bilder (Ebenen) zusammen schmeißen. Dann mit dem Lasso-Tool mal was markieren. Bei Photoshop konnte man hier mit festhalten von Strg + Mausklicks exakte Markierungen ziehen. Zusätzlich konnte man die Softheit des Randes justieren.

Softer Rand scheint es hier nicht zu geben, allerdings muß man NICHTs festhalten um exakt mit der Maus zu markieren. Oh, softer Rand geht doch. Warum aber muß ICH links auf Werkzeugeinstellungen klicken um vom Journal wegzukommen. Nehme ich ein Werkzeug erwarte ich irgendwo IMMER dessen Parameter (bei PS waren Die immer oben).

Etwas Markiertes kopieren/einfügen erzeugt eine neue Ebene, korrekt. Leider ist es eine “schwebende Ebene” mit der man nichts machen kann. Wozu soll das überhaupt gut sein ?

Die Markierung ist leider nicht animiert, so ist schwer zu erkennen das die Markierung eine solche ist. Dachte eben die aktuelle Markierung wäre eingezeichnet. Nein, die Vormakierung verschwindet erst wenn eine Neue fertig geschlossen ist. Ah, eine schwebende Auswahl ist animiert, aber was ist schwebend ?

Mir fällt sofort ein Fehler auf, den ich nach so vielen Jahren nicht mehr erwarten würde. Die AUGEN/Ketten-Icons rechts in den Ebenen verschwinden einfach macht man eine Ebene unsichtbar. Wo vorher ein Auge war bleibt einfach ein leerer Bereich anstatt eines geschlossenen Auge zurück. Wie soll man später wissen was sich hinter einem leeren Feld verbirgt ?!

Klonen eine meiner Lieblingsfunktionen, erster Eindruck, funktioniert ganz gut, hat viele Parameter.

Na und Schlagschatten sind einfach unabdingbar. Zu Finden unter Filter/Licht und Schatten. Weichheit, Größe, Richtung, Deckkraft, alles einstellbar. Hat man einen Schatten erstellt und will daran Parameter verändern, finde ich aber keinen direkten Zugriff mehr darauf. In den Ebenen Eigenschaften gibt es sogar ein Feld Filter, das ist aber leer.

Habe ich z.B. einen Schlagschatten auf einem TEXT erstellt und editiere den Text nachträglich, geht sogar der Schatten-Filter verloren (wird auch so angekündigt). Das ist aber erbärmlich.

Also Schatten erstellen und nachträglich Ändern geht nicht.

Ich geh mal in die Einstellungen, weil mir die Optik von GIMP nicht gefällt. Alles grau in grau, wofür haben wir Millionen Farben ?

Unter Oberfläche/Thema nehme ich System anstatt Dark. Schon besser, nun sind Slider farbig und der Text leicht größer.

Dann unter Oberfläche/Symbol-Thema nehme ich Color anstatt Legacy. Wow, farbige Icons, Fortschritt, Science-Fiction.

Nach ein paar Wochen (ohne mit GIMP was zu machen)

Ich entdecke die intelligente Schere, und Die funktioniert mal echt gut (so der erste Eindruck). Linien zwischen zwei Punkten kann man beliebig fein justieren (schön wär’s). Ist die Markierungs-Linie fertig hat man aber KEINE Auswahl die man kopieren könnte. Man muß erst ENTER drücken um aus der Linie eine Markierung (animierte Linie) zu machen. Warum einfach wenn’s auch kompliziert geht.

Was mich an der Intelligenten-Schere richtig stört ist das man Linien zwischen 2 Punkten nicht softer machen kann. Diese sind oft sehr zackig. Hier müsste es einen Parameter “Soft” geben.

Strg + C, Strg + V den markierten Bereich eingefügt als schwebende Ebene. Unten rechts kann man mit dem + Symbol daraus eine echte Ebene machen. Hat geklappt, dann aber wieder nicht.

Ich nehme ein simples Bild, markiere mit der Schere was, drücke ENTER und kopiere/füge ein. Das Eingefügte ist LEER !!!

Nach x Versuchen sehe ich durch Zufall beim Kopieren oben rechts tut sich was. Ach da erscheint eine Miniatur der Zwischenablage. Da ist es doch. Ich ziehe die Miniatur mal in die Arbeitsfläche, klappt. Leider hätte ich das Eingefügte gerne exakt an der Original-Position. Ein Nachrücken kostet Zeit und nervt.

Nachdem etwas das normalerweise eine Sekunde (PS) dauert, nach 30min geschafft ist möchte ich das Eingefügte verformen.

Geht ganz gut mit der Käfigtransformation. Aber warum kommt man über diesen dämlichen gelb/schwarzen Rahmen nicht hinaus, was soll das ?!

Nach wieder 30min hab ich’s. Man kann unter Ebene/Ebene auf Bildgröße den Rahmen aufblasen. Wozu es auch immer gut sein soll Ebenen-Grenzen haben zu müssen.

Ein wenig Radieren, warum hat der Radiergummi die riesige Form der Umrandung von irgend etwas Markiertem. Schlimmer noch nirgends sehe ich Formen des Radiergummis wie z.B. ein normaler Kreis.

Es ist einfach grauenhaft wie man sich hier jede noch so simple Funktion erlesen/erarbeiten muß. Und ich schätze wenn man es mal hat, dann aber Wochen vergehen weiß man nix mehr und fängt von vorne an.

Leute! GIMP ist wie LINUX selber auch nach Jahrzehnten ein Krampf. Bei Photoshop wusste ich ein paar Tastenkombi’s und das war’s aber auch, es flutschte. GIMP hakt überall. Funktionen sollten in jeder Situation ersichtlich/verständlich (intuitiv) sein.

Davon abgesehen ist die reine Performance von GIMP echt übel. Alles scheint so träge zu sein und die GUI ist ziemlich unpräzise. Und wir haben 2025 und damit viel bessere Rechner. Trotzdem war Photoshop gefühlt auf damaligen Rechnern deutlich schneller wie GIMP auf einem heutigen PC. Man hat das Gefühl der Code ist schlecht geschrieben/compiliert.

Alleine das Menü-System, oftmals fährt man mit der Maus Menü-Einträge ab, steht mit der Maus fett über einem Eintrag, er wird aber nicht aktiv. Sowas wirkt einfach unfertig.

Scaling

Das ist das Unprofessionellste überhaupt. In Photoshop konnte man nach Belieben Scalen, ohne großartige Quali-Verluste. Denn Photoshop behielt im Hintergrund IMMER die Original Kopie. Und von Dieser wurde dann einfach umgerechnet.

Nicht so GIMP. 1x Scaling geht immer, klar, aber dann schon beim zweiten Scaling sieht man erhebliche Qualitäts-Einbußen. Was muß das schwer sein Originale im Hintergrund zu halten. Und sei nur eine Option in den Einstellungen.

Das ist extrem primitiv.

GIMP 3.x.x (05-2025)

Wow, endlich keine schwebenden Ebenen mehr, einfach Copy/Paste und eine neue echte Ebene ist da, geht doch.

Schatten

Das ich das noch erleben darf, Schatten die wirklich mal Schatten sind. Und sogar nach editierbar.

Weil Schatten in vorherigen GIMP-Versionen so besch(/& waren habe ich immer eine Ebene dupliziert und Diese unter Farben/Werte auf SCHWARZ gedreht. Danach die Ebene nach belieben vergrößert, mit einem Filter weich gezeichnet und die Deckkraft justiert. Ganz einfach also, kaum Mehraufwand.

Leider gibt es keine Möglichkeit aus dem Schatten Fx einer Ebene eine “eigene Ebene” zu machen. Das ging mit Photoshop schon vor 20 Jahren. Cool bei PS war auch das man einfach im Bild den Schatten mit der Maus packen und verschieben konnte. Das ist viel simpler als den mit X/Y Balken zu platzieren.

Davon abgesehen (vermutlich bin ich zu dumm für GIMP) ging gestern plötzlich Schatten-Filter nicht mehr. Menü-Einträge waren ausgegraut. Keine Ahnung warum, mußte meine Arbeit dann einstellen. Ist doch klasse.

Vordergrundauswahl

Feine Sache das. Einen auszuschneidenden Bereich grob umzeichnen, dann das Auszuschneidende grob Pinseln, macht Spaß. Und das Auto-Markieren geht auch erstaunlich gut. Aber wie so oft gibt es immer wieder Bereiche in denen nachgearbeitet werden muß. Und da kann GIMP eigentlich nix dafür, es ist halt für eine Maschine viel schwerer Umrisse zu erkennen.

Die Konsequenz daraus ist aber, die Nachbearbeitung dauert so lange, das man es besser gleich mit dem Lasso per Hand ausgeschnitten hätte. Denn eben weil die Kanten oft in und außerhalb von etwas Auszuschneidenden liegen muß man dann nacheinander mit + Bereiche hinzufügen UND dann auch noch mit – Bereiche wegnehmen.

Auch stören mich diese übertrieben vielen Rahmen/Auswahl-Markierungen. Klar, man kann die unsichtbar machen und man muß ja auch mal sehen was man markiert hat. Aber bei PS ging das mit einer Tasten-Kombi (glaube Strg + H für Hide), das war’s. Bei GIMP gibt es 6 SECHS Arten von Linien-Typen !!

Perfektion

Mal eben eine neue Datei generiert, ich will einen Text einfügen. Ich will dessen Farbe ändern. Im Moment als ich das Farbfeld klicke, poff, GIMP ist weg.

Krass auch, ziehe ich die linke Tool-Leiste immer breiter nach rechts, scheint das Farbfeld endlos weiter zu gehen. Das dürfte wohl schon ein Absturz-Grund sein.

Einen zu großen Layer eben mal skalieren. SHIFT + S … oh, kein Handle greifbar. JA, man kann mit den Zahlenfeldern spielen aber irgendwie unprofessionell. Oder wieder skalieren bei greifbaren Rand-Handles, schade bewegen (Move-Handle in der Mitte nicht erreichbar) geht nicht.

Schmerzhaft vermisse ich einen Auto-Scroll. Sei es beim Markieren, Bewegen ect.

 

 

 

 

 

 

 

Blender 4.x.x (ich mag es [fast] nicht)

Ich benutzte Blender vor vielen Jahren intensiv. Baute große 3D-Objekte zusammen dank eines verständlichen Arbeitsfluss der hauptsächlich auf Hotkeys besteht (ist auch heute noch so).

Was mir damals schon auf den Keks ging sind eigentlich simple Dinge die unnötig verkompliziert werden und die man absolut nicht intuitiv erraten kann. Und heute ist es immer noch so, kein Unterschied.

Texturen/Materialien

Wenn ich nur an das Texturing denke wird mir übel. Eben mal ein Bild als Textur einbinden ist schon schlimm. Immer wieder muß man in den Tiefen nach dem Image-Shader (wie auch immer der heute heißt) suchen. Warum gibt es nicht irgendwo in einer OBEREN Ebene einen Button “Bild-Textur” ?

Und dann der Alptraum der Textur-Verteilung auf einem Objekt mit dem UnWrap. Das es so etwas geben muß verstehe ich total und kriege das durchaus hin. Aber auch hier warum gibt es (zumindest auf den ersten Blick) keine simplen Grund-Mapping Formen (Kugel/Quadraht usw.) ?

Ähnlich nervig auch die Grund Materialien, man weiß eigentlich genau was man will (Metall, Schleim, Plastik, Glas usw.) muß aber quasi erraten welcher Shader es sein könnte und dann noch endlose Parameter anpassen. Eine extrem zeitaufwändiges Probieren. Macht null Spaß und oft kriegt man es nicht hin. Warum gibt es hier nicht eine simple Auswahl von Grund-Materialien ? Feintunen danach ist ja dann OK.

Nodes

Der Abgrund der Hölle überhaupt, Nodes.

Und JA, ich verstehe das es so etwas geben muß und es ist allerliebst gemacht mit den wunderschönen Nodes und wie man Diese verbindet. Aber wenn ich schon irgendein HowTo sehe wie man dies und jenes Material zusammen Strickt – und tschüß, keine Zeit für so etwas.

Keine Material Library’s

Auch so ein Unding, das es keine Material Library’s gibt. Irgendwie holt man Materialien aus bestehenden Szenen, wenn man sich noch erinnert welches Material wo verwendet wurde. Viel Spaß !!

Warum kann man sich keine Library’s mit seinen Lieblings-Materialien erstellen und immer wieder darauf zurückgreifen ?!

Flüssigkeits Simulation

Das nervt mit aktuell mit Blender 4 besonders. Eben mal eine Domain, ein InFlow und Effektor hinzugefügt, die Simulation funktioniert. 

Hmm, eben sah ich noch alles, plötzlich keine Partikel mehr zu sehen, keine Ahnung warum. Irgendwann kriege ich raus, das kleine Quadraht in der Domain-Ecke gibt auch die Mindest-Größe des InFlow-Objektes vor, ansonsten keine Partikel. Muß man wissen.

Mein Hauptthema ist aber die Partikel Größe. Bei älteren Blender Versionen gab es wohl eine “Real World Size”, bei Blender 4 nicht mehr.

Im INet wird gesagt “Particle Resolution” oder “Viewport Size” oder Domain Scaling oder “Particle Display Size”. Aber was man auch versucht die verdammten Partikel bleiben gleich groß. Nicht ganz, die Domain zu verkleinern verkleinert auch die Partikel. Nun hat man aber eine mühsam erstellte Szene, haut eine Fluid Simulation rein. Dessen Domain Size muß sich ja logischerweise der Szene anpassen, kein Problem. Oh, die Flüssigkeit ist leider viel zu groß im Vergleich zu den Szene Objekten. Verkleinert man nun eben die Domain Size werden vielleicht die Partikel kleiner aber nun passt eben die Domain Size nicht mehr zu den Rest Objekten der Szene !!

Was für ein Wahnsinn, endloses herum Probieren und Recherchieren ohne voran zu kommen. Und dabei finde ich viele Foren wo User verzweifelt fragen wie man denn die Partikel (Fluid) Size verändern können. Und wie gesagt überall verschiedenste Antworten die nicht weiterführen.

Das ist so dermaßen frustrierend, man weiß genau was man will kriegt es auch mit nachlesen nicht hin und schon gar nicht intuitiv. Das ist sooo Blender.

TABs (allgemein die rechte Seitenleiste)

Auch ganz bescheiden, warum bleiben TAB’s (Parameter rechts) nicht an ihrer Position ?! Ständig springen die TAB’s wieder ganz nach oben und man muß wieder mühsam zu bestimmten Parametern scrollen.

Oder warum muß man sich selber erinnern welche Eigenschaften irgend ein Objekt hat. Damit meine ich so Dinge wie z.B. ein Partikelsystem, Modifier usw. Ständig muß man alle möglichen Sparten abklappern nur um etwas wieder zu finden. Es wäre bestimmt zu viel verlangt, das diese ICON-TAB’s mal farblich markiert werden, wenn darin eine Funktion benutzt wird.

Ich fände es am besten, wenn man ein Objekt selektiert hat, das man von einem Punkt ALLE zugewiesenen Funktionen sehen/erreichen könnte.

Ich finde es auch sehr merkwürdig, das wenn man ein Objekt selektiert, dieses NICHT oben rechts in der Objekt-Hirarchie markiert wird wenn es sich in einer Unter-Ebene befindet. Es wird nicht mal die oberste Ebene hervorgehoben. Such mal selber du DAU-Esel !! Was soll der Quatsch. Es müsste sofort der Baum aufgeklappt und das Objekt markiert werden.

Light/Shadow Linking

Auch so ein Ding das ich kaum begreife, mehr Zufall wenn mal was klappt wie man will.

Man hat zwei Objekte (Cube und Icosphere), die Kamera und ein Licht alles in einer Collection. Beim CUBE stelle wähle ich unter Light Linking die Icosphere) ab. Sie wird nicht mehr beleuchtet.

Wähle ich nun die Icosphere an, steht bei der KEIN Eintrag unter Light Linking, WARUM ? Dieses Objekt ist doch verlinkt !! Füge ich auch dort die Collection wie beim Cube hinzu, steht es nun auch bei der Icosphere drin. Warum nicht direkt, die Icosphere hat schon ein Light Linking vom Cube her ?!?!

Fügt man die Collection noch Shadow Linking hinzu korrespondieren deren Häkchen mit denen im Light Linking … äääh … raff ich nicht – zwei Dinge die sich exakt folgen ist irgendwie eines zu viel.

Subdivision

Verdammt, warum sieht man beim Modifier Multiresolution (Subdivision) nicht das was passiert !! Früher hat man den Modifier Subdivision hinzugefügt und konnte live “sichtbar” das Mesh unterteilen. Zum ersten sind die Buttons nur im Objekt-Modus scharf. Dort sieht man aber kein Mesh. Im Edit-Modus sieht man das Mesh aber die Buttons sind inaktiv. Voll logisch !!

Nach einer kleinen Ewigkeit finde ich raus man muß Apply klicken, damit das was man optisch nur erahnen kann auch passiert, OMG.

Und damit die Form des Ur-Objekt’s erhalten bleibt muß man noch unter Advanced/Boundary-Smooth das None umstellen.

Da ist im Edit-Modus per Rechts-Klick die Subdivision schon viel eher Live.

Verschiedenes

Die Kamera eben mal gerade ausrichten, geht vielleicht irgendwie, warum nicht per Rechts-Klick SUB-Menü ?

Ständig muß man nach recherchieren wie etwas geht. Man hat etwas einfaches im Kopf und steht sooo oft wie der Ochs vorm Scheunentor. Immer wieder muß man das Netz bemühen und sich zumeist Video’s rein pfeifen. Der Arbeitsfluß steht mal wieder still.

Hat man irgendwann mal etwas geschafft, muß man sich mühsam aufschreiben wie man es schaffte. Denn ich garantiere will man das Gleiche in 2 Wochen machen weiß man nicht mehr wie. Will sagen Blender ist derartig un-intuitiv das es seelisch weh tut.

Eben mal Vertex-Gruppen unterschiedliche Materialien zuordnen, ein Albtraum. Nach 45 Minuten habe ich es dann endlich mit nachlesen hin bekommen.

Zuerst erstellt man die Vertex-Gruppen gibt denen vielleicht markante Namen. Dann würde der Normale Menschen-Verstand doch sagen “gehe zum Material und weise es einer Vertex-Gruppe zu” … Moment !! Das wäre zu trivial.

Man ist gezwungen ständig zwischen dem Vertex-Group und Material TAB hin und her zu switchen, absolut nervig. Im TAB Vertex-Group ist dann eine Gruppe namentlich auszuwählen UND diese per Button auch noch zu “Selektieren”. Warum wird die Gruppe nicht schon beim Klick auf den Gruppen-Namen selektiert. Davon abgesehen warum gibt es keinen “Deselect ALL” Button ?!

Hat man endlich die richtigen Vertices selektiert muß man wieder zum Material TAB und denen per “Assign” Button das Material zuweisen. Die Buttons erscheinen NUR im EDIT-Mode. Warum kann man im Material TAB nicht “ASSIGN” klicken und man kann dort direkt die Vertex-Group wählen ?!

Im Graph-Editor gibt es keinen Auto-ZOOM. Die einfachste Methode das zu simulieren ist ‘A’ für alles auswählen dann den NUM-Pad Punkt zum ZOOM. Trotzdem, so etwas muß man dauerhaft aktivieren können.

Und wenn ich diese dämlichen, unbedienbaren Blender eigenen Scroll-Balken sehe wird mir echt übel. Deren Verhalten ist oft unabsehbar und die Teile gab es schon vor über 10 Jahren. Die taugen nicht.

 

 

 

 

 

 

Linux MINT und CAJA (Endlos-Problem seit MINT V.21)

Was ist das ein endloses Ärgernis mit CAJA. Und das seit ich auf MINT Version 21 upgradete.

Man kann das CAJA Verhalten nur als “Deep-Scan” bezeichnen. CAJA fängt nach Lust und Laune an irgendwelche Directorys zu scannen. Das wäre ja noch verzeihlich wenn nicht die komplette CPU-Leistung abgezogen würde. Verdammt wer hat diesen Mist programmiert ?!

Der USER des PC hat meiner Meinung nach erstmal das absolute Vorrecht über die CPU-Power !! Es kann ja im Hintergrund gescannt werden, aber bitte dezent. Und auch dieses Scannen sollte abschaltbar sein. Mir würde es absolut reichen wenn aktuell geöffnete Ordner “refresht” werden. Ich sehe die Ordner, arbeite damit und das reicht.

WARUM mach CAJA das nun seit Jahren. Man ist mitten in der Arbeit, plötzlich beginnt der Scan (HDD-LED flickert ständig) und in der Systemüberwachung liegt CAJA mal wieder bei 96%

Arbeiten macht so keinen Spaß mehr. Und die CPU-Last läßt oft auch nicht nach wenn man alle Ordner schließt.

Das Problem ist seit Jahren bekannt und wird überall im Netz diskutiert, aber KEINER weiß genau warum sich CAJA so verhält geschweige denn wie man das Problem beseitigt.

Heute wieder, morgens stundenlang gesurft, dann plötzlich von einem Moment zum Anderen geht die CPU-Last von CAJA gegen 100%. Das scheint sich aber immer nur auf EINEN CPU-Kern zu beziehen, der ständig wechselt. Das System an sich ist schnell (z.B. wenn ich GIMP starte). Also ist mit der CPU-Last die in der Systemüberwachung (oder auch htop) angezeigt wird gar nicht eine Gesamt-Last gemeint.

Es wird immer gemunkelt es wäre das Thumbnailing von CAJA im Hintergrund, mag ja sein. Lege ich irgendein Bild auf den Desktop wird kurz darauf dessen neu generiertes Thumbnail in ~/.cache/Thumbnails und dessen Unterordnern abgelegt.

Heute aber fällt mir (eigentlich ist es immer so) auf, das alle Fenster eine Spur am Bildschirm hinterlassen. Und zwar nur in CAJA Fenstern, also auch auf dem Desktop. Andere Fenster bleiben sauber. Klickt man in der Taskleiste irgendein Programm an wird dieses sauber angezeigt und ist funktional. Klickt man aber auf einen Ordner (CAJA) wird nur der Fenster-Rahmen (scheinbar) ohne Inhalt angezeigt. Bewegt man das Fenster zieht es den (zufälligen) grafischen Hintergrund mit. Will ich einen neuen CAJA-Ordner öffnen geschieht NICHTs. Das hat ja eigentlich nichts mit Thumnails zu tun. Bei mir ist jedenfalls ein proprietärer NVidia-Treiber installiert.

Und wie so oft, den CAJA Task killen hilft wunderbar, nur sind dann alle geöffneten Ordner weg. Und alleine alle wieder zu öffnen nervt schon.

Aber egal wie sehr man auch im Internet sucht, NIEMAND weiß Abhilfe. Und das Problem existiert mal locker seit 2012 !! Allerdings wird überall immer nur über CPU-Load geschrieben und das sah ich auch lange so. Aber wie oben geschrieben “die Last bezieht sich auf einen CPU-Kern”. Eigentlich arbeitet das System recht frei.

Ich mache immer alle Updates, so etwas müsste doch mal beseitigt worden sein. Liegt es evtl. am Grafiktreiber ?! Aber ich schreibe diesen Text hier gerade im FF, während CAJA seit Stunden streikt. Top Darstellung, alles gut im FF und allen anderen Programmen.

Nun kommen einem ja heutzutage die merkwürdigsten Vermutungen. NVidia gibt keine Daten Richtung Linux-Gemeinde preis. Will NVidia einem evtl. Linux vermiesen ? Aber dafür tritt der Effekt zu regelmäßig auf. Man kann immer drauf wetten in jeder Session passiert es mindestens 1x oder mehr. 

Ich meine das wäre vor viele Jahren nach einem MINT Versionssprung Upgrade aufgetreten, vorher war alles Jahre OK. Ich suche das mal hier, habe das irgendwo im BLOG geschrieben ….

… ich finde sowas hier :

vom 21.1.2023

Eben komme ich zum Rechner zurück, klicke zwei unterschiedliche CAJA-Ordner (vor Stunden geöffnet) an. Es erscheint keine Inhalt, sondern nur der hauchdünne Fenster-Umriß. Das ist mal was Neues, hatte ich so n.n.

Oh, wie ich gerade feststelle ist deren Inhalt nicht leer, sondern enthält zufälligerweise den grafischen Inhalt vom ShotCut-Programmfenster. Also sowas habe ich wirklich noch nie in MINT gehabt. Auch das drücken von F5 hilft nicht. Schließen lassen sich die Fenster auch nicht. Also scheinbar mal wieder ein CAJA-Hänger. Und ich dachte das wäre endlich mal vorbei nach den letzten Updates. Nach beenden des Prozess geht wieder alles, wie üblich.

oder das hier :

Vor der MINT Version 21 war zum Thema “CAJA läuft stabil” noch alles OK. Ab dann zeigte CAJA aber regelmäßig Hänger. Das kann man einfach temporär beseitigen indem man den Prozess beendet (kill). CAJA wird von selber direkt wieder gestartet, da der Desktop auch eine CAJA-Instanz ist. Auf die Dauer ist es dennoch nervend.

Da steht’s ja, mit der MINT Version 21 fing es an.

Seit meiner Ur-Installation habe ich MINT nie wieder neu (clean) installiert. Will ich nicht, werde ich auch nicht probieren. Was wäre es toll wenn es einen System-Check aller wichtigen Komponenten gäbe.

Und CAJA läßt sich nicht mal eben deinstallieren und wieder installieren, es ist DIE wichtige Komponente des System’s.

Hier finde ich noch etwas pauschales im Netz, aber gut ausgedrückt :

Caja, der Dateimanager in MATE, kann Grafikfehler im Fensterinhalt haben. Mögliche Ursachen sind Probleme mit der Grafikkarte oder dem Grafiktreiber, Konflikte zwischen verschiedenen Softwarekomponenten oder einfach ein Bug in der Anwendung. Um das Problem zu lösen, kann man versuchen, den Grafiktreiber zu aktualisieren, die Grafikkarte zu wechseln, oder Caja neu zu installieren. Auch eine andere Desktop-Umgebung könnte helfen, um zu sehen, ob das Problem nur in MATE besteht. 
CAJA bremst endlich mal direkt sichtbar

Habe stundenlang einen Ordner auf, in dem sich eher gemächlich Medien-Files ansammeln. Während der gesamten Zeit keine CAJA CPU-Last. Als ich meine Arbeit beende dann plötzlich 48% CPU-Last, ich schaue Minutenlang zu. Dann komme ich auf die Idee den Medien-Ordner einfach mal zu schließen. Auf den Schlag ist die CPU-Last weg.

WAS macht CAJA in diesem Ordner ??

Während der Last ist immer wieder eine Prozess CAJA zu sehen , unter “Wartender Kanal” in der Systemüberwachung, der sich “do_poll.constprop.0” nennt. Der taucht aber auch massenweise in anderen Prozessen auf.

“Nur für Dateien kleiner als”

Habe nun mal in CAJA/Einstellungen/Vorschau unter “Nur für Dateien kleiner als” die File-Größe mal von Original 2GB auf 100MB mal deutlich verkleinert. Mal abwarten …

Interessanter Effekt entdeckt

Ein paar Tage später, es sind ein paar Ordner offen. Plötzlich bemerke ich wieder das System ist träge, oh, MINT scannt wieder, die HDD-LED ist aktiv.

Ich schließe stückchenweise die Ordner. Beim Schließen des letzten Ordner dann, LED ruhig. In dem Ordner liegen nur Video’s. Ich verkleinere nochmals die Filegröße auf 10MB, bringt NIX. Interessant aber das nur gescannt wird wenn der Ordner geöffnet ist, schließt man Ihn hört sofort der Scan auf. Das kann ich beliebig reproduzieren.

Ich Verschiebe mal einen großen Teil der Video’s auf eine USB-HDD. Bringt auch nix, obwohl nur noch knapp 20 Video’s im Ordner sind wird fleißig gescannt. Was macht das System daran so lange ?!

Auch interessant, als noch viel mehr Video’s im Ordner waren arbeiteten ALLE Cores im Mittel bei 60%, nach dem verkleinern dann nur noch 30% CPU-Last.

Es ist sowieso ein Witz, das irgendein SUB-Prozess gnadenlos ALLE Cores benutzen darf und so das System wirklich runter zieht. Ich sag’s nochmal welcher Programmier-HONK ….

Ich mache einen Neustart und öffne direkt besagten Ordner, der Scan geht direkt wieder los. Ich Kopiere nun mal die 20 Files in einen neuen Ordner und öffne Diesen, kein Scan. Ich öffne den Ur-Ordner, kein Scan mehr wo eben noch auch nach einem Neustart kräftig gescannt wurde !!

Das Einzige was sich geändert hat an den Files im Ur-Ordner ist der Eintrag der Zugriffs-Zeit, denn es wurde ja beim Kopieren auf Sie zugegriffen. Das scheint irgendeinen Auslöser zu sein.

Schöne Erkenntnis, bringt nur nix … außer ich beobachte weiter.

Stunden später

Nach einer heftig langen Umcodierung plötzlich dann CAJA bei 96% aber auf ganz andere Art und Weise. Es ist nämlich immer nur EIN Core auf Volldampf und immer nur für kürzere Momente, dann wechselt CAJA auf einen anderen Core, klappert alle Core’s ab. Trotzdem geht dann nicht mehr viel. Fenster ziehen Schleier hinter sich her und falschen Inhalt mit.

Die HDD-LED ist unaufgeregt, hat also mit dem Directory-Scan nix zu tun. Was CAJA hier tut bleibt rätselhaft. In der Syslog Datei steht ständig was von BLOCK und IP-Adressen, aber das belastet die CPU doch nicht.

 

 

 

yaVDR 0.62 (AutoRemove AutoClear)

Nach langer Zeit mal wieder ein “sudo apt-get autoremove” und “autoclear gemacht mit unguten Erinnerungen.

Und tatsächlich lande ich nach einem Reboot in der Vollbild-Konsole – juchuuu !!

Irgendwo hier in meinem Blog steht aber wie man das Grund-System reparieren kann…such…find

https://64kbyte.zapto.org/yavdr-0-62-updat…ief-nach-monaten/

Der Wiederherstellungs-Befehl lautet :

sudo apt-get install yavdr-essential

Danach geht auch scheinbar alles bis auf die Fernbedienung. Nach einigen Versuchen, gebe ich auf, nehme die Tastatur. Das geht auch ist aber deutlich umständlicher.

Nach gefühlt einer Woche, dann plötzlich ohne mein zutun geht die Fernbedienung wieder als wenn nichts gewesen wäre.

ES LEBT !!!!!!!!!!

ANSIBLE (ab yaVDR 0.7)

Ich muß mich noch mal auskotzen. Habe 0.7 vor geraumer Zeit testweise installiert, was ein Albtraum war von wegen Umständlichkeit. Erst eine UBUNTU-Server Version saugen/installieren. Aus der ANSIBLE-Doku gehen wichtige Dinge wie Partionieren (Aufteilung/Größen) gar nicht hervor. Auch werden oft wichtige Frage-Optionen nicht geklärt.

Egal, nach der UBUNTU-Server Installation, dann viele Befehle zur yaVDR-Installation eingetippt, es folgt ein schier unendlicher Installations-Vorgang.

Irgendwann jedenfalls lief yaVDR 0.7, es folgte DIE ERNÜCHTERUNG : Welche Voll-Deppen haben das (mit Version 0.62) schöne alte, perfekte System so verhunzt ?!

Kein SideBar-Menü mehr, riesige Fenster-TITELLEISTEN, nirgends ein brauchbares Menüsystem in dem man mal etwas anpassen könnte (z.B. die dämlich riesigen Titel-Leisten). Und dann noch ein Horror TEARING (Bild-Zerreißung). Bei YouTube auf jeden Fall, im Live-TV weiß ich nicht mehr.

Gleichzeitiges Fernsehen und Surfen mit FF war irgendwie kaum mehr handhabbar.

In SUMME wie kann man ein Traum-System so besch$%&/eiden konvertieren ?!! Warum gibt es kein DVD-Install-Image zum Download mehr ? Saugen, Brennen, installieren, fertig. OK, das mit einem Zusatz DVD-Laufwerk muß nicht sein, kann man ja aber nach Installation wieder ausbauen.

Warum gibt es Niemanden der es schafft yaVDR 0.62 irgendwie auf ein modernes UBUNTU zu portieren ? 

Warum sage ich das?

Weil das uralte UBUNTU 14.04 so “langsam” leicht veraltet ist. Ich habe es neulich geschafft immerhin ein AppImage des letzten FF für UBUNTU 14.04 auf die Kiste zu speichern. Dieser FF wird von mir seit dem immer per Hand gestartet. Das lief bis vor wenigen Wochen klasse. Ich konnte wieder aktuelle Webseiten ohne Probleme ansehen. Bis es Mozilla gefiel wichtige Zertifikate ablaufen zu lassen. Es poppten Warnungen auf “Achtung – Zertifikate werden demnächst deaktiviert – dann gehen AddOn’s nicht mehr”.

Das passierte dann tatsächlich seitdem liegen wichtige AddOn’s deaktiviert herum, DANKE Mozilla !! Keinen Dark-Modus mehr (Webseiten ätzen einem die Augen raus) und dank deaktiviertem Werbe-Blocker zusätzlich viel bunte animierte Werbung.

Was ich sooo komisch finde :

KEINER auf dem Planeten juckt das. Auch über dieses neumodische und in meinen Augen völlig untaugliche ANSIBLE-Gedöns regt sich keiner auf. Ich könnte ja noch verstehen das heftig über ANSIBLE Diskutiert wird, aber man findet so gar nix. Das wäre mir auch noch egal, wenn sich nach Monaten/Jahren die ANSIBLE nun existiert per Update mal was verändern würde. Neulich nochmal die ANSIBLE SSD rein gehängt (und die 0.62er SSD abgeklemmt). Dann Updates gemacht, kein Unterschied, ja leckt mich.

Wieder die SSD’s ab/angeklemmt und 0.62 wollte nicht mehr laufen !!!! Ähhh ich hatte die ABGEKLEMMT !! Irgendwie habe ich die 0.62 natürlich wieder zum laufen gebracht.

 

 

Linux MINT 22 (Wilma) USB NTFS Mount Probleme

Es ist soweit, für das Thema muß ich ein eigenen Post schreiben.

Das so etwas in 2024 noch möglich ist …

Neulich händisch auf Mint 22 (Wilma) UpGeGraded. Alles schien zuerst wie immer, bis ich dann mal eines meiner mehreren USB-HDD Laufwerke einschaltete. Es kam ein Mount-Error.

Teilweise half dann scheinbar das (immerhin sichtbare Laufwerk aber ohne Auswurf-ICON) angezeigte Laufwerk  einmal anzuklicken um es zu mounten. Ein anderes Laufwerk ließ sich so aber nicht mounten.

Dann stellte ich im “Laufwerke”-Programm in den Einhänge-Optionen aller USB-Drive’s “Vorgabe der Benutzersitzung” auf AUS, setzte den Haken “Beim Systemstart einhängen” und gab unter “Anzeigename” einen Label für das Drive ein.

Nach zusätzlicher Recherche im Netz stellte sich schnell heraus das der im 6er Kernel befindliche ntfs3-Treiber einen BUG hat !! Man sollte diesen deswegen auf die BLACKLIST setzen, was ich mit diesem Befehl auch neulich tat.

echo ‘blacklist ntfs3’ | sudo tee /etc/modprobe.d/disable-ntfs3.conf

Der Befehl schreibt den Text “blacklist ntfs3” in die Datei /etc/modprobe.d/disable-ntfs3.conf

Des weiteren soll der folgende Befehl NTFS-Laufwerke fixen, wobei ich absolut nicht verstehe warum das nötig ist. Denn alle meine USB-HDD’s haben über Jahre hinweg problemlos funktioniert.

sudo ntfsfix -b -d /dev/sdxx

Es wird aber noch schlimmer, denn wenn man nichts unternimmt zerstört der BUG fröhlich Laufwerks-Strukturen ect.

Es darf doch nicht wahr sein das man hier gezwungen ist selber aktiv zu werden !!! Der Fehler ist doch bekannt, warum fixt den Niemand !!? Stattdessen läßt man die User allein … selber ein paar Befehle eingeben die evtl. ein NTFS Laufwerk fixen oder aber ….

Nach ein paar weiteren Tagen, alles scheint gut, will ich mal eben das Mounten meiner USB-HDD’s Stück für Stück durchspielen.

Ich muß dazu sagen, den ntfsfix-Befehl habe ich bisher bei nur EINEM Laufwerk ausgeführt, weiß aber nicht mehr bei welchem.

Eine 2,5″ 5TB wird wunderbar angenommen. Auch speichere ich seit Tagen Daten darauf. Das heißt aber ja noch nicht das Diese auch i.O. sind. Trotzdem kann ich eben gespeicherte Filme abspielen und bis zu deren Ende spulen.

Nun zu den 3 x 3,5″-HDD’s :

Bei Einer kommt ein “Mount-Error” …

Eben mal nachgesehen ob der Text “blacklist ntfs3” noch in der /etc/modprobe.d/disable-ntfs3.conf steht … NEIN !!!

Ach du SCHE%&?

Schnell den oben stehenden echo Befehl nochmal ausgeführt danach geschaut ob “blacklist ntfs3” wieder in der Datei steht, JA !!

Hurtig Rebooten …

Wieder die Datei auf den Eintrag geprüft … JA der Text “blacklist ntfs3” steht noch drin. Trotzdem wird EIN eingeschaltetes Laufwerk nicht gemountet. 

Ich führe nun mal den ntfsfix-Befehl auf diesem Laufwerk aus, obwohl gesagt wird zum erfolgreichen mounten alleine würde der Blacklist-Eintrag reichen.

Der Befehl ist in einer Nano-Sekunde durchgeführt, danach schalte ich die HDD aus/ein.

So, den ntfsfix Befehl nochmal bei alles Laufwerken ausgeführt, ist aber wahrscheinlich unnötig. Es geht hauptsächlich um den buggy ntfs3 Treiber im Kernel.

Aktuell melden sich ALLE USB-HDD’s wieder sauber an.

Wichtig !! NTFS3 Treiber auf die Blacklist UND bei mir mußte ich USB-HDD’s im Laufwerke-Programm in den Einhängeoptionen den “Vorgabe …” Schieber auf AUS schalten, Haken bei “Beim Systemstart einhängen” und einen Anzeigename eingeben.

 

 

Linux Mint 21.x auf 22 Upgrade (Wilma)

Da scheinbar Mint 22 existiert, aber offiziell nicht freigegeben wird habe ich das Upgrade per Hand ausprobiert.

Als erstes in der Anwendungsverwaltung nachschauen ob “mintupgrade” schon installiert ist. War bei mir schon drauf.

Dann in der Konsole starten mit “sudo mintupgrade”

In der Regel erscheint eine Meldung das bestimmte Kleinigkeiten “Behoben” werden müssen – einfach machen lassen.

Dann die endlosen Download’s abwarten.

Danach beginnt die Installation….und die dauert eine Weile

Hiernach werden “Neue verwaiste Packete werden entfernt”

NEUSTART !!! BIBBER !!!

Tja, mal wieder gar nicht so gut (in 2024 schon traurig) startet Mint in einen schwarzen Bildschirm. Mein Monitor zeigt an, ein Bild-Signal ist da (LÖSUNG siehe unten Lösung für den Black Screen)

Versuchsweise tippe ich mein Login-PW ein + ENTER, nix, auch keine Lade-Aktivitäten. Ich drücke mal den Power-Button, der PC rödelt kurz und geht aus, das System Reagiert also.

Nach einer kurzen Weile starte ich mal in GRUB die Advanced Options und dort Generic-Recovery. Im folgenden DOS-Like Screen wähle ich Startvorgang fortsetzen. Nach den üblichen Vollbild-Linux Text-Meldungen erscheint der Login-Bildschirm !!

Ich logge mich ein, und alles sieht aus wie immer !!

Geiler Fortschritt, aber für Linux nicht ungewöhnlich. Und ich mag das sogar, kein neuer Schnickschnack, alles wie gewohnt.

Das löst natürlich nicht das Black-Screen Problem, aber man kann arbeiten. Denke aber das im Recovery-Modus Mint seine volle Power nicht einsetzt (geht aber trotzdem wie Bolle).

Jedenfalls sieht mein Desktop/Taskleiste aus wie eh und jeh. Auch die Textgrößen und der Mauspfeil wie gewohnt.

Aber ehrlich, natürlich Google ich nach “black screen” und sehe das Problem existiert schon seit Juli, wir haben nun November. Starke Leistung …

Installiert ist jedenfalls folgender NVIDIA Treiber :

nvidia470.256.02-0ubuntu24.04.1

Testweise nehme ich in der Treiberverwaltung mal den xserver-xorg-video-nouveau(quelloffen) Treiber. Aber schon bei dessen Installation ahne ich nichts Gutes. Denn es kommt KEINE Rückmeldung und der Balken wandert nicht weiter. Zudem kann ich keinen der beiden Treiber mehr anwählen.

Was nun ? Ist der Nouveau nun drauf oder nicht ? Der Abbrechen Button zeigt auch keine Wirkung…vielleicht geht das Treiber Umswitchen ja nicht im Generic-Recovery Mode.

Auch Minuten später kein Status erkennbar…ich starte mal neu

Tja, nun komme ich über den Normalstart-Punkt in GRUB zum Login-Screen, natürlich alles in elend niedriger Auflösung. Ich gehe wieder auf die Treiberverwaltung installiere den empfohlenen NVIDIA Treiber erneut. Aber auch danach Black-Screen startet man Mint per GRUB-Normal Modus.

Ich weiß, das dieser Kernel 6.x.x Probleme mit NVIDIA-Treiber zeigte. Deswegen bin ich immer bei den 5er Kerneln geblieben.

Und auch bei der 22er Version das Problem, das ich vorhin noch mit der 21.x hatte. Ein Ordner der eigentlich genug Speicherplatz hat zeigt Diesen nicht entsprechend an und deswegen läßt sich eine größere Datei nicht einfügen … nix gut

Lösung für den Black Screen

In einer Konsole die GRUB Datei editeren :

sudo nano /etc/default/grub

Dort bei der folgender Zeile das Wort “splash” löschen :

GRUB_CMDLINE_LINUX_DEFAULT=”quite splash

Danach mit Strg + O speichern und ich habe danach sicherheitshalber noch ein sudo update-grub gemacht.

Nach einem NEUSTART startet MINT 22 dann wie gewollt auch ohne die Generic-Recovery Auswahl.

3 Tage später (Aktualisierungen installieren)
Hatte ich auch noch nie. Ich öffne wie immer die Aktualisierungsverwaltung und klicke “Aktualisierungen installieren” aber es passiert nix. Ich aktualisiere, aber auch danach keine Reaktion … dann eben nicht.
Laufwerk freier Speicherplatz wird falsch angezeigt

Ist mir nun schon mehrmals aufgefallen. Nach neu Encodieren von HD-Filmen mit ShotCut lösche ich das Original (*.ts) aber der freie Speicherplatz wird nicht mehr (Mülleimer ist gelöscht). Nach einem Neustart ist dann der Speicherplatz wieder frei. Somit kann ich bei wenig freiem Speicherplatz nicht den nächsten Film in Arbeit nehmen.

Hmm, hatte ShotCut noch am laufen, der Quell-Film war aber sauber gelöscht. Und das OS hat doch die Gewalt über Speicher-Resourcen. Scheinbar hält ShotCut aber irgendwo den Speicher belegt. Wenn dem so wäre müsste das OS dann aber beim Löschen Meckern von wegen “in Verwendung … kann nicht löschen”. Jedenfalls ist nach dem Schließen von ShotCut der Speicherplatz wieder frei.

PS : aber man kann ja auch Dateinamen während in Diese geschrieben wird einfach umbenennen (bei Windows undenkbar), was ich aber extrem gut finde.

USB HDD Laufwerk wird nicht mehr eingehängt (NTFS3 Bug)

Eines von mehreren USB-Laufwerken (alles NTFS) wird einfach nicht mehr eingehängt. Vor dem Wilma Upgrade lief alles einwandfrei. Auch habe ich seit dem Upgrade schon mehrmals aktualisiert. Darunter waren 2x neue Kernel’s.

Und trotzdem lese ich gerade etwas von einem BUG im NTFS3 Treiber…

Blacklist ntfs3 and you are most likely good.
Bugs like this are the price we pay for using a proprietary filesystem (for which MS is not providing a proper driver).

Des weiteren finde ich …

In Linux kernels from 5.15 the kernel module ntfs3 can be used when mounting external NTFS drives, in stead of using ntfs-3g.

Ach du Schei%&(

Dieses Kommando hat bei mir geholfen die USB-HDD wieder zu mounten :

sudo ntfsfix -b -d /dev/sdxx

Kommando um NTFS3 auf die Blacklist zu setzen :

echo ‘blacklist ntfs3‘ | sudo tee /etc/modprobe.d/disable-ntfs3

Leider sind damit die Probleme NICHT verschwunden. Ganz nach Lust und Laune werden USB-Laufwerke nicht mehr eingehängt. Geht auch nicht manuell … oder doch … oder … hääää

Ich klicke gerade zum 2. mal auf den “PLAY” (Einhängen) Button im Laufwerke Programm weil in CAJA eben KEIN Button vorhanden ist. OK, dort macht man Rechte-Maustaste/Einhängen. Und plötzlich wird eine HDD eingehängt, die eben NICHT reagierte !!!

Ey, das hat ALLES jahrelang wunderbar und mit NULL Problemen funktioniert !!!! Welcher verdammte Honk baut so einen MIST ?!?

Ich war so zufrieden mit MINT und dann so etwas, evtl. auch noch mit dem Risiko einer Daten Korruption. Das geht ja mal gar nicht.

Das ist kein schönes Gefühl, wenn MINT plötzlich wichtige Laufwerke nicht mehr will.