Stefan Frank

 
  Berufliche Tätigkeiten   -¦-  Ausbildung   -¦-  Veröffentlichungen



Suchmaschinen

Suchroboter sind auf einem Auge blind

Die Roboter der Suchdienste sind Software-Programme, die das Web ständig auf neue oder aktualisierte Seiten durchsuchen. Roboter sind eigentlich “sehbehinderte” Browser. Beispielsweise können Roboter zur Zeit keine Texte lesen, die als Grafik kodiert wurden und viele visuell orientierte Navigationselemente, wie beispielsweise Image Maps oder Frames, stellen die fleißigen Datensammler ins Abseits.

Daher sind viele Maßnahmen zur Suchmaschinenoptimierung auch geeignet, um die Zugänglichkeit einer Seite zu erhöhen. Zum Beispiel: Vermeidung von JavaScript oder Flash usw. im Eingangsbereich von Website, um die Zugänglichkeit in allen Fällen gewährleisten zu können.

-¦-

Metadaten

Besonders wichtig ist die Verwendung von Metadaten. Metadaten sind Beschreibungen von Daten. Einige Suchmaschinen berücksichtigen diese Daten, andere nicht. Noch nicht. Erst nach und nach etablieren sich Standards, die an altbewährte Methoden aus Bibliotheken erinnern, aber eine automatische Datenverarbeitung ermöglichen. Beispielsweise stellt der Metadatenstandard DublinCore ein Beschreibungsinventar zur Verfügung, das die Urheber von Texten, Grafiken kennzeichnet und die Inhalte einer Webseite in Form von Schlagwörtern, Resümees und ähnlichem zusammenfassend beschreibbar macht.

Wenn Sie zukünftig Ihren persönlichen Suchroboter (Agenten) losschicken, damit er Ihnen ein Weiterbildungsangebot schnürt, dass Ihr Erfahrungs- und Wissensprofil auf das Wissensmanagement Ihrer Wunschfirma und an die aktuellen Arbeitsmarktdaten ausrichtet, dann wird das ohne Metadaten nicht reibungslos funktionieren.



-¦-

Texten für das WWW

Volltextsuche à la Altavista oder Google stellt heute den Stand der Technik dar, aber die Vieldeutigkeit natürlicher Sprachen stellt Suchmaschinen immer wieder ein Bein hinsichtlich eines perfekten Suchergebnisses. Daher stellt die sorgfältige Auswahl wichtiger Wörter an bestimmten Stellen in Dokumenten (z.B. in Seitentiteln, Überschriften und Dateinamen) einen zentralen Arbeitsschritt im Entwurf einer Website dar.

Dokumente im WWW stellen eine andere Textart dar, als Texte in Büchern oder Katalogen. Vernetzte Texte werden auch als Hypertexte beschrieben, die in sich abgeschlossene Einheiten bilden und mit anderen Dokumenten über Links verknüpft sind. Suchmaschinen honorieren diese Eigenschaft und beziehen die Analyse von Verknüpfungen in die Bewertung von Dokumenten ein. Die Sortierung der Suchergebnisse wird von dieser Bewertung beeinflusst.

Ob man es nun Search Engine Optimization (SEO) oder proaktives Gestalten nennt: Suchmaschinen belohnen Benutzbarkeit, Zugänglichkeit und die Einhaltung von Standards, da die eigentlichen Inhalte der Webseiten erst dann voll zur Geltung kommen, wenn sie auch gefunden und gesehen werden.

-¦-

Zukünftige Entwicklungen

Heutzutage unterstützen Erkenntnisse und Systeme aus Linguistik und Künstliche Intelligenz Ihre Informationsbedürfnisse nur wenig. Die Mathematik der Suchmaschinen ist heute, trotz dem Vorherrschen von Boolscher Algebra (AND, OR, NOT bzw. +, - ...) an der Benutzerschnittstelle, nicht Logik sondern Statistik und Vektorrechnung.

Auch wenn Google den ursprünglichen Marktführer Altavista technologisch überrundet hat, dann wird Googles konnektivistischer Ansatz (bewertete Verknüpfung von Webseiten untereinander) zukünftig verbessert und übertrumpft werden. Sprachverstehen (bzw. die Simulation des kognitiven Apparates des Menschen) bei der Interpretation von Suchanfragen oder der Indexierung von Dokumenten werden die Qualität der Suchmaschinen (gemessen in Recall und Precision) verbessern.

Außerdem werden neue Konzepte die Recherche nach verfeinern und für die Benutzerin vereinfachen, beispielsweise die grafische Navigation durch semantische Netzwerke und die Nutzung von Ontologien (z.B. kann die Klassifikation des Yahoo-Kataloges als eine einfache Ontologie betrachtet werden).