[SEO] robots.txt 활용하기 > 웹문서/검색 마케팅

본문 바로가기
사이트 내 전체검색

웹문서/검색 마케팅

[SEO] robots.txt 활용하기

페이지 정보

profile_image
작성자 금탑
댓글 0건 조회 9,329회 작성일 21-03-26 12:17

본문

'robots.txt' 파일은 검색엔진이 사이트의 일부에 액세스하여 크롤링할 수 있는지를 알려줍니다. 이 파일의 이름은 'robots.txt'이어야 하며 사이트의 루트 디렉터리에 있습니다. robots.txt에 의해 차단된 페이지가 크롤링되는 경우도 있으므로 민감한 페이지의 경우 더 안전한 방법을 사용해야합니다.

# brandonsbaseballcards.com/robots.txt
# Tell Google not to crawl any URLs in the shopping cart or images in the icons folder,
# because they won't be useful in Google Search results.
User-agent: googlebot
Disallow: /checkout/
Disallow: /icons/

검색엔진의 검색결과에 표시되어도 유용하지 않을 수 있는 페이지인 경우 해당 페이지가 크롤링되기를 바라지 않을 수 있습니다. 검색엔진에서 페이지를 크롤링하지 못하게 하려면 Google Search Console을 사용하세요. robots.txt 생성기를 사용해 robots.txt. 파일을 손쉽게 만들 수 있습니다. 사이트에서 하위 도메인을 사용하며 특정 하위 도메인에서 일부 페이지가 크롤링되지 않게 하려면 해당하는 하위 도메인에 별도로 사용할 robots.txt 파일을 만들어야 합니다.

피해야 할 사항:

  • 내부 검색결과 페이지가 Google에 크롤링되지 않도록 하시기 바랍니다. 사용자는 검색엔진의 검색결과를 클릭했을 때 내 사이트에 표시된 다른 검색결과 페이지로 이어지는 것을 좋아하지 않습니다.
  • 프록시 서비스의 결과로 생성된 URL이 크롤링되도록 허용하는 경우


f154e2554644f0cf56637c6cf8c15db0_1616728667_753.png
 


민감한 정보에는 보다 안전한 방법을 사용하세요.

robots.txt는 민감하거나 기밀인 자료를 차단하기에 적절하거나 효과적인 방법이 아닙니다. robots.txt는 잘 작동하는 크롤러에 크롤링 대상이 아닌 페이지를 알려주지만, 서버가 페이지를 요청하는 브라우저에 페이지를 게시하는 것을 막지는 않습니다. 인터넷 어딘가에 내가 차단한 URL의 링크가 있는 경우 검색엔진에서 이 URL(제목이나 스니펫이 아닌 URL만 표시됨)을 계속 참조할 수 있기 때문입니다. 또한 로봇 배제 표준을 준수 또는 인정하지 않는 불량 검색엔진에서는 robots.txt의 지시를 따르지 않을 수도 있습니다. 마지막으로 호기심이 많은 사용자가 robots.txt 파일에 있는 디렉터리 또는 하위 디렉터리를 확인하고 내가 표시하지 않으려는 콘텐츠의 URL을 추측할 수 있습니다.

페이지가 Google에 표시되는 것은 원하지 않지만 링크가 있는 사용자가 페이지에 액세스하는 것은 상관없다면 noindex 태그를 사용하세요. 실제로 보안을 강화하려면 사용자 비밀번호를 요구하거나 사이트에서 페이지를 완전히 제외시키는 등의 적절한 승인 방법을 사용해야 합니다.

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

Copyright © admoim.kr All rights reserved.