En Spider er en søgemaskinerobot der finder indhold til søgemaskinerne
For at søgemaskinerne kan indeksere sider på nettet, kræver det at de ved hvilket indhold der ligger på websiderne.
Dette gør de ved brug af små programmer kaldet spidere eller robotter, som løber millioner af websider igennem og returnerer websidernes indhold til søgemaskinen.
Hver gang en spider støde på et link fra én side til en anden, bliver linket tilføjet til en huskeliste over sider der senere skal besøges. Dermed vokser listen af links og indhold der skal indekseres, hele tiden.
Indekseret indhold, bliver derefter ranket i søgemaskinernes algoritmer.