A kereső robot (más néven spider vagy crawler) egy olyan automatizált adatgyűjtő program, amely folyamatosan pásztázza az internetet a weboldalakon található hivatkozásokon keresztül, és az így összegyűjtött információkat a keresőmotorok adatbázisában tárolja el.