Kreuvfs Allerweltsblog

2007-06-09

Redirect mit .htaccess

Abgelegt unter Software,Technologie,Webdesign von Kreuvf um 16:29:37

Die offizielle Apache 1.3-Dokumentation zu Redirect ist meiner Meinung nach unverständlich. Ich will daher meine Ergebnisse mit dem Redirect via .htaccess hier in einer einfach und verständlich in Form eines Beispiels festhalten.

Redirect

In der .htaccess-Datei befindet sich folgendes:
Redirect /redirecttest http://redirectsite.org

Die .htaccess-Datei befindet sich bei http://originsite.org/redirecttest/.htaccess.

Im Browser rufe ich dann die Adresse http://originsite.org/redirecttest/fetter_download.7z auf. Der Webserver erhält daraufhin genau diese Adresse und merkt anhand der .htaccess, dass er die Anfrage umleiten soll.

Dabei wird die Adresse von links nach rechts nach “/redirecttest” durchsucht und anschließend alles, was rechts vom ersten Treffer dieser Suche ist an die Umleitungsseite, in diesem Fall http://redirectsite.org, angehangen.

Die Anfrage sieht nach Umleitung dann so aus: http://redirectsite.org/fetter_download.7z.

Eine andere Anfrage, etwa an http://originsite.org/redirecttest/redirecttest/fetter_download.7z, liefert http://redirectsite.org/redirecttest/fetter_download.7z. Es ist dabei sogar egal, ob der zweite Redirecttest-Ordner auf der Ursprungsseite überhaupt existiert.

Bei Gelegenheit werde ich diesen Ablauf in ein animiertes Bild oder eine Bildfolge packen.

Kommentare zu diesem Artikel abgeben (benötigt Boardaccount)

2007-05-07

nofollow für Wikipedia

Abgelegt unter In eigener Sache,Software,Technologie,Webdesign von Kreuvf um 15:19:20

Ende Januar diesen Jahres hat die Wikipedia-Leitung beschlossen, dass alle externen Links mit dem Attribut rel=”nofollow” versehen werden.

Was heißt das?

Suchmaschinen durchwühlen das Internet, indem sie allen Links auf einer Seite folgen und so über kurz oder lang alle Seiten irgendwie verzeichnet haben. Ob man bei einer Suchanfrage an erster oder letzter Stelle steht, wird dabei vor allem durch die Links anderer Seiten auf die eigene Seite bestimmt. Ist ein Link mit rel=”nofollow” versehen, wird dieser von der Suchmaschine übergangen, für den menschlichen Seitenbesucher ist dies nicht ersichtlich solange der Quelltext nicht angeschaut wird.

Wikipedias Situation

Mir ist seit einiger Zeit aufgefallen, dass zu relativ vielen Suchbegriffen der entsprechende Wikipedia-Artikel ziemlich weit oben ist, so unter den ersten zehn Treffern. Wikipedia hat sich also über die Zeit eine richtig gute Platzierung angeeignet. Dies liegt vor allem an den vielen Links, u.a. auch auf Blogs, die auf bestimmte Wikipedia-Artikel verweisen.

Das Gute daran: Dadurch, dass Wikipedia-Artikel gut bewertet sind, werden auch die in Wikipedia-Artikeln verlinkten externen Seiten besser bewertet. Aus Spam-Abwehrgründen hat man aber bei der Wikipedia beschlossen, dass eben alle externen Links eine “Markierung” (nofollow) bekommen, die Suchmaschinen sagt “Rechne diesen Link nicht in deine Bewertungsstatistik mit ein.”.

Wie gesagt ist das schon seit Ende Januar so, ich habe es nur eben erst jetzt mitbekommen und beschlossen, dass alle Wikipedia-Links auf *.kreuvf.de ein nofollow bekommen.

Links

heise.de – Google, MSN und Yahoo: gemeinsam gegen Kommentarspam
Wikipedia – Wikipedia modifies handling of nofollow tag

Kommentare zu diesem Artikel abgeben (benötigt Boardaccount)

2006-08-10

Regulationswut

Abgelegt unter Soziales Umfeld,Webdesign von Kreuvf um 09:48:10

Eine Studie der Universität von Alberta zufolge werden Internetseiten nicht durch strengere Kontrollen und Auflagen für Webseiten-Admins/Webmaster sicherer. Gemeint ist damit vor allem die Weitergabe von Informationen, die bei einer Registrierung oder Bestellung gemacht werden.

Wie bekannt sein dürfte werden Adressen und E-Mail-Adressen für viel Geld gehandelt und so erscheint es für den einen oder anderen Webmaster – Datenschutz hin oder her – lukrativ seine in einer Datenbank gespeicherten User-Informationen einfach an den Höchstbietenden zu verkaufen.

In der o.g. Studie wurde u.a. die Top100 der US-amerikanischen Business-Webseiten analysiert, bevor erst kürzlich verabschiedete Gesetze zur Regulierung der Informationsverfolgung und des Informationsverkaufs (im Original: laws to regulate the tracking and selling of information) in Kraft getreten sind. Verglichen hat man diese Ergebnisse dann mit den schon länger unter Regulation stehenden Webseiten im Vereinigten Königreich.

Herausgefunden hat man folgendes: Die überregulierten Webmaster im Vereinigten Königreich haben oftmals nur die Informationen herausgegeben, die sie per Gesetz auch herausgeben müssen. Viel schlimmer ist dann aber noch, dass diese Informationen in unverständlicher Juristensprache (Original: legalese; dürfte wohl auch eingedeutscht als “Juristisch” (als Bezeichnung für eine Sprache) übersetzt werden) gefasst war.

Es wird eindeutig für ein selbstregulierendes System plädiert, da in beiden Systemen Betrüger gleich oft auftauchen, aber dafür in den regulierteren Systemen die Schwere des Betrugs größer ist.

Das Fazit, das Dr. Karim Jamal, ein Professor an der University of Alberta School of Business, daraus zieht ist eindeutig: “Unsere Forschung zeigt uns, dass, wenn wir uns auf strikte Regulation und harte Gesetze verlassen, es uns nur mehr kostet das auch umzusetzen, es mehr Komplexität und Verwirrung verursacht und zu krasseren Betrugsfällen führt.”

Quelle:
eurekalert.org – More regulations make Web sites less trustworthy, study shows

Kommentar zu diesem Artikel abgeben (benötigt Boardaccount)

2006-06-20

milliondollarhomepage.com

Abgelegt unter Webdesign von Kreuvf um 14:41:25

Eigentlich sollte diese Seite jeder kennen, da ein rel. großer Medienrummel um sie veranstaltet wurde.

Ich glaube aber mittlerweile, dass er nicht nur einen Pixel für einen Dollar verkaufen will, sondern nebenbei auch noch pro Pixel mindestens einen Fehler in den Code bauen will.

Der Validator des W3C weigert sich ohne Überschreiben des angegebenen Zeichensatzes überhaupt die Seite zu überprüfen. Also habe ich die Seite mit iso-8859-1 validieren lassen. Das Ergebnis: 3603 Fehler bei 3375 Zeilen Code macht etwa 1,0676 Fehler pro Zeile.

Links:
milliondollarhomepage.com
Validator des W3C

Kommentare zu diesem Artikel abgeben (benötigt Board-Account)

2006-06-11

Druckerfreundlichkeit

Abgelegt unter In eigener Sache,Technologie,Webdesign von Kreuvf um 09:52:28

Dieser Beitrag beschäftigt sich mit dem Thema “Druckerfreundlichkeit auf kreuvf.de” und schneidet webdesign-technische Hintergründe an.

Mit der Weiterentwicklung des HTML-Standards ist die Trennung zwischen dem Inhalt einer Seite und dessen Layout deutlich in den Vordergrund getreten. Was sich zuerst vielleicht umständlich und aufwendiger anhört als eine Variante “Inhalt + Design”, ist in Wahrheit eine geniale Möglichkeit seine Daten portierbar in andere Datei- und Anzeigeformate zu halten und sich so im Endeffekt Zeit zu sparen.

Stellen wir uns vor jn. verfasst eine Webseite mit dem Thema “HTML lernen in 20 Kapiteln” und baut diese größtenteils auf wie ein Buch. Also eine Seite mit dem Inhaltsverzeichnis und dann pro Kapitel mehrere Seiten zu verschiedenen Themen, am Ende ein Glossar. Nehmen wir mal an die Seite ist sehr erfolgreich und immer mehr User wollen die Seite gerne als Buch haben. Wären Design und Inhalt jetzt miteinander verbunden, müsste der Webmaster jede einzelne Seite per Hand nachbearbeiten und z.B. Schriftgrößen, die am Bildschirm ok sind, für den Druck anpassen. Das würde eine mehrstündige Beschäftigungstherapie darstellen, die durch sinkende Konzentration desöfteren pausiert werden müsste.

Jetzt hat dieser Webmaster aber nicht umsonst eine so erfolgreiche Seite zum Thema HTML und hat die dort vorgeschlagenen Techniken, nämlich Inhalte wie Bilder, Texte, Listen und Tabellen vom Design zu trennen, konsequent eingesetzt. Alle Dokumente zu seinem Projekt greifen auf eine einzige Datei mit Designangaben zurück. Zudem hat er die Möglichkeit mehrere dieser Designdateien, sogenannte Cascading Style Sheets, kurz CSS, pro Seite anzugeben und zu bestimmen für welches Medium diese Designdatei gültig sein soll. In unserem konkreten Fall hat dieser Webmaster also mindestens eine Designdatei für die Betrachtung auf Bildschirmen und eine Designdatei für den Druck. Der riesige Vorteil: Ändert er eine Einstellung in der Designdatei, ändert er das Aussehen der gesamten Seite.

Ein weiteres Problem für den Druck sind störende Elemente, die nur für die Bildschirmbetrachtung sinnvoll sind, wie Werbebanner, Navigations- und Statistikleisten. Auch hierfür hat CSS einfache Abhilfe: Man blendet diese Bereiche einfach aus. Umgekehrt kann man bestimmte Inhalte, die nur für den Druck interessant sind, für den Bildschirm ausblenden.

Und genau jene Techniken verwende ich auch auf kreuvf.de. In den Genuss dieser Technologie gelangen sie mit halbwegs modernen Browsern wie etwa Opera oder Firefox. Probieren sie es doch gleich hier aus. Firefox-Nutzer gelangen zur Druckvorschau über Datei –> Druckvorschau. Achten sie mal genau darauf welche Elemente beim Druck wegfallen und wie sich andere Elemente verändern.

Aber wie gesagt: Nicht nur der Blog, sondern alle Bereiche auf kreuvf.de (das Board ausgenommen) haben zusätzliche Designangaben für den Druck, sodass man ohne allzu große Umstände direkt aus dem Browser heraus drucken kann.

Nachtrag 11:18 Uhr: Durch Zufall habe ich ein passendes Zitat (englisch) gefunden.

I concluded that the print stylesheet made the users’ lives better without them even noticing. That’s the way technology should be.

Quelle: Printfriendly CSS and Usability

Kommentare zu diesem Artikel abgeben (benötigt Boardaccount)

« Vorherige Seite