Um eine Internetseite in den Ergebnislisten der Suchmaschinen gut platziert zu sehen, genügt es nicht mehr, gute Inhalte auf die Seite zu stellen. Zusätzlich ist es nötig, eine Optimierung für die Suchmaschinen zu betreiben. Technische Lösungen können hierbei helfen, jedoch nicht die wichtigsten Aufgabenschritte übernehmen.

Suchmaschinen

Die Algorithmen der Suchmaschinen werden stetig verbessert, beim Versuch, die Suchanfragen der Nutzer mit den richtigen Seiten zu verknüpfen. Seit es Suchmaschinen gibt, existieren jedoch auch Firmen, die ihre Seiten in allen Suchergebnissen platzieren wollen, ob die Inhalte auf die Suchanfrage passen oder nicht. Ziel der Suchmaschinen ist es daher, solche Seiten zu identifizieren und aus den Ergebnislisten zu streichen. Bei Google, der größten Suchmaschine der Welt, spricht man auch vom sogenannten Google-Spamming. Während es in den Anfängen der Suchmaschinenoptimierung noch hilfreich war, willkürliche Begriffe in den Metatags zu platzieren, um gefunden zu werden, können Suchmaschinen heute besser erkennen, welche Inhalte sich tatsächlich auf der Seite befinden.
Hierzu werden die Texte auf der für Internetnutzer sichtbaren Seite nach Schlüsselbegriffen durchsucht. Damit hier nicht willkürlich zusammengesetzte Texte die Begriffe enthalten, dem Leser aber keinen Mehrwert bringen, haben die Betreiber der Suchmaschinen Algorithmen entwickelt, die natürliche Sprache von maschinell erstellten Texten unterscheiden können. Bisher ist es noch keinem Algorithmus gelungen die natürliche Struktur eines Textes so gut nachzuahmen, dass eine Suchmaschine sie nicht erkennen würde. Ein menschlicher Autor ist also zur Optimierung einer Internetseite nicht zu ersetzen. Doch kleine Tools können den Autoren bei seiner Arbeit unterstützen.

Schlüsselbegriffe und Textduplikate

Zum einen ist es wichtig, die entscheidenden Schlüsselbegriffe in der richtigen Menge im Text zu platzieren. Kleine Tools helfen dabei, die Begriffe im Text zu zählen und die prozentuale Verteilung zu ermitteln. Beliebig viele Schlüsselbegriffe werden von den Suchmaschinen als unnatürliche Verteilung erkannt und daher entsprechende Texte schlechter bewertet. Dann ist es wichtig, dass der Text auch als Unique Content erkannt wird. Da die Worte, die zu einem bestimmten Thema genutzt werden können, begrenzt sind, kommt es immer wieder vor, dass ein Autor einen Text schreibt, der einzelne Sätze enthält, die so schon einmal im Internet veröffentlicht wurden. Um zu vermeiden, dass solche Texte als Kopie gebrandmarkt werden, kann man sie vor der Veröffentlichung auf solche Duplikate testen lassen.

Strukturierung

Zuletzt ist es auch wichtig, die Struktur der Internetseite so zu gestalten, dass die Robots, also die Suchprogramme, freien Zugang zu allen wichtigen Stellen haben. Nur so ist gewährleistet, dass die Inhalte erkannt und gespeichert werden können und der Seite ein guter Rang zugewiesen wird. Diese Optimierung kann mithilfe von Algorithmen geprüft werden, die auf ähnliche Weise wie die Robots der Suchmaschinen funktionieren.y