Kreuvfs Allerweltsblog

2014-12-29

Geld verdienen als Gildenmagier (PDF)

Abgelegt unter Das Schwarze Auge (DSA),Software,Technologie von Kreuvf um 20:22:40

Vor einiger Zeit habe ich den Artikel DSA: Geld verdienen als Gildenmagier verfasst und hier veröffentlicht.

Da ich in der nahen Zukunft seit Langem mal wieder Grund habe mich mit LaTeX & Co. auseinanderzusetzen, habe ich mir die Umwandlung dieses Artikels in eine latexmäßig anständige PDF als Übung ausgesucht.

Ich bin mit der PDF des Artikels DSA: Geld verdienen als Gildenmagier sehr zufrieden und möchte es auch meinen Lesern zur Verfügung stellen, da der Ausdruck direkt von der Webseite nicht an die Qualität eines LaTeX-Dokuments heranreicht… und ich mich seit Ewigkeiten nicht mehr darum gekümmert habe die Layoutvorgaben für den Druck direkt von der Seite zu aktualisieren ;)

2014-10-26

Firefox: Offlinedaten vs. Private Mode

Abgelegt unter Software,Technologie von Kreuvf um 15:10:55

Um bestimmten JavaScript-Code schneller ausführen zu können, kann Firefox diesen in einer kompilierten Form speichern. Leider tut es das auch im Private Mode und legt dabei verräterische Verzeichnisse im Profilverzeichnis an.Firefox kann bestimmte Daten in einen Offlinecache packen. Leider passiert dies auch beim Surfen im Private Mode, sodass Verzeichnisse mit dem Namen der besuchten Seiten angelegt werden.

Beispiel

Für dieses Beispiel verwende ich einen Firefox 33 mit den Addons Ghostery 5.4.1 und DownloadHelper 4.9.24 unter einem Ubuntu 14.04, beide Addons sind eingeschaltet:

  1. Im Profilverzeichnis nach dem Verzeichnis „storage“ schauen.
  2. Sicherstellen, dass sich kein Verzeichnis „temporary“ im storage-Verzeichnis befindet.
  3. Firefox starten.
  4. File -> New Private Window
  5. www.meteoearth.com in die Adresszeile eingeben.
  6. Eingabe bestätigen.
  7. Firefox schließen.
  8. Im temporary-Verzeichnis auf das neue Verzeichnis „http+++www.meteoearth.com“ stoßen.
  9. WTF?

Bug-Report erstellen

Mozilla kriegt sich ja kaum mehr ein auf ihrer Seite damit anzugeben wie sehr denen doch Datenschutz am Herzen liege, aber einen Weg zu deren Bug Tracker habe ich nicht gefunden; dafür musste ich tatsächlich eine Suchmaschine bemühen!

Mal sehen, ob/wann Bug 1089353 gefixt wird. Der Bug 819496 existiert bereits seit dem 7. Dezember 2012 und harrt einer datenschutzigen Lösung. Das spricht Bände.

2014-06-28

GMX Magazin erklärt Botnets

Abgelegt unter In eigener Sache,Technologie von Kreuvf um 18:09:10

Um die Leute zur Probe und anschließend zum Kauf von angeblicher Sicherheitssoftware zu bewegen, verschickt GMX an seine Freemail-Nutzer regelmäßig eine als „GMX Magazin getarnte Spammail.

Und in der Ausgabe 26/2014 der GMX-Spam-Mail heißt es:

Was ist ein Botnet? Ein Botnet sind mehrere, virtuell verbundene Rechner, die auf Ihrem PC ein Eigenleben entwickeln – und Sie wissen von nichts!

Das ist so grotesk falsch, dass ich GMX eine Antwort dazu geschrieben habe:

Sehr geehrte GMX-Magazin-Redaktion,

[…]

Was ist ein Botnet? Ein Botnet sind mehrere, virtuell verbundene Rechner, die auf Ihrem PC ein Eigenleben entwickeln – und Sie wissen von nichts!

Nein, das ist definitiv keine Definition für ein Botnet. Wikipedia weiß Rat:

https://de.wikipedia.org/wiki/Botnet
“Ein Botnet oder Botnetz ist eine Gruppe von automatisierten Computerprogrammen,
sogenannten Bots. Die Bots (von englisch: robot “Roboter”) laufen auf vernetzten
Rechnern, deren Netzwerkanbindung sowie lokale Ressourcen und Daten ihnen zur
Verfügung stehen.”

[…]

Und was ist passiert? Eine automatische 08/15-Antwort, in der mir mitgeteilt wird, dass ich mich mit meinem Anliegen erneut an den zuständigen Ansprechpartner wenden soll.

Nö, fickt euch. Wenn euch mein Input wirklich interessieren würde, würdet ihr euren Spam nicht von einer Adresse senden, die eingehende Mails direkt in den Müll schmeißt. So steht das jetzt halt im Internet und jeder kann lesen was ihr für niveaulose Spammails verschickt.

2014-06-08

Einfach erpressbar dank „Recht auf Vergessen“

Abgelegt unter Psychologie,Recht & Gesetz,Soziales Umfeld,Technologie von Kreuvf um 21:14:54

Das „Recht auf Vergessen“, das im Grunde keines ist, hat nach nur kurzer Zeit bereits dazu geführt, dass Google mit 40.000 entsprechenden Anfragen zugespammt wurde.

Im Internet frei abrufbare Quellen werden von Suchmaschinen automatisiert durchsucht und die dort verzeichneten Inhalte indiziert. Durchsucht man „das Internet“ mit der Suchmaschine, so durchsucht man in Wahrheit gar nicht tatsächlich das Internet, sondern den Index der Suchmaschine, also im Endeffekt eine Datenbank.

Wegen eines Urteil des Europäischen Gerichtshofs wurde Google in einem Fall gezwungen ein Suchergebnis nicht zurückzuliefern, also so zu tun als gäbe es besagten Inhalt im Internet nicht. Der Inhalt ist weiterhin im Internet abrufbar.1 Von einem Recht auf Vergessen kann hier also keine Rede sein.

Dienste hocherfreut

Unsere fünfäugigen „Freunde“ dürfte es aber freuen, dass Gebrauch von dieser Funktion gemacht wird: dadurch, dass die Betroffenen genau sagen, was man über sie im Internet nicht finden darf, ist auch direkt klar, womit man diese Personen im Falle des Falles erpressen könnte. Noch deutlicher kann man es den Diensten gar nicht sagen: „DAS IST MEIN WUNDER PUNKT, BITTE NUTZT DEN NICHT AUS.“ Und ich fand die mit einem großen Pflaster markierten wunden Punkte der Endgegner aus Yoshi’s Island immer zu unrealistisch…

1 Es würde mich freuen, wenn jemand für die im Netz kursierende Behauptung, dass derselbe Spanier bereits gegen die Onlineveröffentlichung dieser Notiz geklagt und verloren hatte, eine Quelle liefern könnte.

2013-12-27

Urheberrecht & Lebensmittelreplikatoren

Abgelegt unter Recht & Gesetz,Technologie von Kreuvf um 22:16:55

In den einschlägigen SciFi-Geschichten findet sich die Idee eines Lebensmittelreplikators: eine Maschine, die in der Lage ist ein bestimmtes Lebensmittel atomgenau zu reproduzieren. Sie essen also keinen Apfel mehr, sondern jedes mal den gleichen Apfel. Keine Qualitätsschwankungen, keine Lagerproblematik, optimiert auf die gesundheitliche Wirkung, garantiert frei von krebserregenden Stoffen und anderen Giften.

Klingt super? Dann wage ich mal die folgende Vorhersage: mit einem Lebensmittelscanner kann sehr einfach jedes beliebige Gericht eingescannt werden. Und mit dem Replikator kann es dann auch wieder auf den Tisch gezaubert werden. Wo ist da das Problem? Die Herren Meisterköche (und ihre Abmahnanwälte) werden es nicht gerne sehen, wenn deren tolle Kochkunst auf einmal für alle verfügbar ist. Die Befürchtung, dass durch raubkopiertes Essen die Einnahmen der Restaurants zurückgehen, wird dafür sorgen, dass das gesetzlich unterbunden wird. Und dann? Dann wird eben via P2P das Raubessen gesharet und die Restaurants, die ihre Menüs frei zur Reproduktion zur Verfügung stellen, erfreuen sich steigender Beliebtheit, weil man deren Gerichte alle vorher durchtesten kann, um dann im Restaurant selbst mal eine Version zu bekommen, die nicht aus dem Replikator kommt.

« Vorherige SeiteNächste Seite »