Permalinks verursachen Duplicate Content

Wer wie wir Permalinks für sämtliche Beiträge nachträglich ändert, riskiert so genannten Duplicate Content. Das mögen Suchmaschinen wie Google überhaupt nicht, was zu Problemen bei der Indizierung führen kann. Bei uns funktionierten lesefreundliche Permalinks lange Zeit nicht, weil der Server dafür nicht eingerichtet war. Erst ein Upgrade brachte den gewünschten Erfolg. Das verursachte jedoch ein neues Problem: Zahlreiche Beiträge waren nun doppelt verlinkt. Zum einen über kurze p-Nummern und zum anderen über lange Permalinks.

Bei wenigen Beiträgen ist das von Hand schnell korrigiert. Aber wer über 1000 Postings hat, von denen Hunderte untereinander verlinkt sind, hat ein weiteres Problem – too many links error. Also haben wir die Datenbank mit phpMyAdmin exportiert, mit einem Texteditor geöffnet, über Suchen und Ersetzen das Gröbste korrigiert und das Ganze wieder importiert. Das lohnt sich aber nur bei massenhaften Links, wie zum Beispiel bei Quellenangaben in einem scheibchenweise erfassten Buch.

Andere Links sind zu unterschiedlich, als dass sie sich über Suchen und Ersetzen automatisieren ließen. Deshalb mussten wir noch eine ganze Menge von Hand erledigen. Bei der Gelegenheit haben wir sämtliche alten Kommentare vorsorglich gelöscht, um potenzielle Folgefehler auszuschließen. Google sollte nun nichts mehr zu beanstanden haben und uns endlich wieder in seine Datenzentren reinlassen.