cross Posted May 4, 2013 Report Posted May 4, 2013 Pentru cei care folosesc robots.txt .Motoarele de cautare inspecteaza in radacina domeniului cautand fisierul robots.txt (http://www.domeniu.ro/robots.txt).Acest fisier are o sintaxa speciala continand inregistrari. Fiecare inregistrare are 2 campuri de forma: Field : value.Prima linie mentioneaza User-agent iar alta linie sau mai multe Disallow.Fisierul nu poate fi facut cu un simplu editor in mod text, ci cu unul care poate lucra in mod UNIX sau folosind clientul FTP pentru a face transformarea.User-agent este numele robotului. De exemplu:User-agent: googlebotPentru a specifica toti robotii se poate folosi caracterul *. De exemplu:User-agent: *Disallow exclude de la cautare fisiere sau directoare. De exemplu este exclus de la cautare fisierul proba.html:Disallow: proba.htmlPot fi excluse de la cautare si directoare. De exemplu directorul test aflat in radacina domeniului:Disallow: /test/Daca Disallow nu are nici o metiune inseamna ca nu sunt fisiere sau directoare excluse de la cautare.Fiecare User-agent are cel putin o linie Disallow.Un fisier robots.txt gol este echivalent cu lipsa acestuia.Exemplul 1: este permis accesul oricarui robot si nici-un fisier exclus de la cautareUser-agent: *Disallow:Exemplul 2: acces interzis robotilor (sunt excluse toate fisierele)User-agent: *Disallow: /Exemplul 3: acces interzis unui anume robotUser-agent: googlebotDisallow: /Exemplul 4: pentru un anume robot este exclus de la cautare fisierul test.htmlUser-agent: googlebotDisallow: test.htmlVerificarea existentei si continutului fisierului robots.txt poate fi facuta online la adresa:CGI-bin/robotcheck.cgi”>robots.txt ValidatorSunt incepator, daca considerati tutorialul meu nefolositor va rog sa il stergeti! 1 Quote