Eine Suchmaschine besteht aus zwei Teilen:
Die Suchroboter sind Rechner, die unentwegt das WWW durchsuchen, indem sie von einer festen Menge gegebener URLs ausgehend die entsprechenden Webseiten laden und analysieren sowie alle darauf befindlichen Links speichern. Anhand dieser Links laden sie dann weitere Webseiten, folgen deren Links usw.
Die Suchroboter haben die Aufgabe, einen großen Index zu erstellen, der - vereinfacht beschrieben - eine Liste aller möglichen Wörter enthält sowie zu jedem Wort die URLs aller Webseiten, in denen dieses Wort auf relevante Weise vorkommt.
Suchst Du mit einer Suchmaschine nach einem Begriff, z.B. "Apfel", so beginnt die Suchmaschine nicht, alle Internetseiten nach diesem Begriff zu durchsuchen, sondern sie schlägt einfach in ihrem Index nach und kann Dir so in Sekundenbruchteilen passende URLs liefern.
Du kannst Dir den Index einer Suchmaschine als riesig große Tabelle vorstellen:
Suchmaschinen wie die oben beschriebene gibt es seit Anfang der 1990'er Jahre, doch lange Zeit war ihr Nutzen sehr begrenzt, da sie zu einem Suchbegriff zwar in sehr kurzer Zeit viele hunderttausende Suchergebnisse finden konnten, aber nicht in der Lage waren, diese Suchergebnisse so zu ordnen, dass die für die Nutzerin/den Nutzer nützlichen Seiten möglichst weit vorne aufgelistet wurden. Man musste meist minutenlang in den Suchergebnissen blättern um relevante Links zu finden.
1996 hatten Larry Page und Sergey Brin, zwei Studenten der Stanford University, eine Idee, wie man die Qualität von Webseiten sowie die Relevanz einer Webseite für einen bestimmten Begriff bewerten konnte. Sie nannten sie Page Rank. Im Wesentlichen geht es dabei zum zwei Kriterien: