Plik robots.txt to specjalnie spreparowany dokument, odpowiadający za komunikowanie się z robotami indeksującymi, które przeczesują internet. Ich zadaniem jest odnajdywanie nowych stron internetowych, a także pozyskiwanie informacji na temat wprowadzanych modyfikacji. Ich treść opisuje również obszary witryny, które nie podlegają indeksacji i mają być niewidoczne w wynikach wyszukiwania. Są one pisane z użyciem specjalistycznego języka komend określonego standardem Robots Exclusion Protocol.
N
O
- Organiczne wyniki Google (inaczej bezpłatne, naturalne), Ruch organiczny
- Open Source
- Outbound Marketing
- Optymalizacja pod wyszukiwarki
- Organic Traffic
P
- Performance marketing
- PLA (ang. Product Listing Ads)
- Pozycjonowanie (ang. SEO)
- PPC (ang. Pay Per Click)
- Page Rank
- Pingowanie
- Pingwin Google
- Pressel Pages
- Partial Match Anchor
- Personalizacja wyników wyszukiwania
- Przekierowanie 301
- Przekierowanie 302
R
- Reklama displayowa
- Remarketing (Retargeting)
- Responsive Web Design (RWD)
- Robots.txt
- RODO
- ROI (ang. return on investment – zwrot z inwestycji)
- ROPO (ang. research online, purchase offline)
- Rankbrain
- RDFa
- Referrer
- Rich Snippets
S
- SEM (Search Engine Marketing)
- SEO (Search Engine Optimisation)
- SERP – (Search Engine Result Page)
- Sitemap xml
- SMO (Social Media Optimization)
- SSL (ang. Secure Sockets Layer)
- Strona docelowa
- SAAS
- Semrush
- Seznam
- Snippet
- Subdomena
- System Wymiany Linków SWL
- SEA - Search Engine Advertising
- Search Engine Reputation
- Search Quality Team
- Site-Wide link
- Spam
- Speed Update
- Supplemental Index
T
U