[네이버웹마스터 가이드] 웹페이지 페이지간 이동시 고려할 사항
페이지 정보
본문
자바스크립트로 redirect하지 마세요.
사이트 및 페이지의 redirect 처리 시 자바스크립트 형식을 사용하는 경우 일반적으로 검색로봇이 이해하기 어려운 형식이라 해당 링크가 어떤 URL로 redirect 되는지 잘 파악하기 어려운 문제가 있습니다.
또한 redirect 정보를 숨기는 형태의 페이지는 주로 스팸성 문서에서 많이 발견되고 있어서, 양질의 좋은 페이지임에도 스팸 문서 처리 과정에서 불필요하게 중요도가 낮은 것으로 저평가를 받을 수도 있습니다.
따라서 url 링크 또는 redirect 처리 시에는 자바스크립트 함수를 사용하지 않는 것이 검색로봇에게 올바른 정보를 알려주는 데 도움이 됩니다.
만약 해당 주소가 redirect 되는 것을 방문자에게 알리고 싶다면 meta refresh를 사용할 수도 있으며, 네이버의 검색 로봇은 meta refresh를 인식합니다. 다만, HTML 4.01 표준에서는 meta refresh 를 사용하지 않기를 권장하고 있으므로 되도록이면 HTTP redirect를 사용해 주시기 바랍니다.
- 잘못된 redirect 사용 예시
var timerld = setTimeout("move()", 500);
function move() {
location.href = "http://new.site.com/";
timerld = 0;
}
- meta refresh 사용 예시
<meta http-equiv="refresh" content="10;url=http://new.site.com">
사이트나 페이지를 변경할 경우 301 Permanently Moved 형식의 redirect를 사용해 주세요.
사이트 또는 내부 페이지의 URL을 변경할 경우 검색로봇은 기존 사이트 또는 그 내부 페이지와 다른 신규 정보인 것으로 잘못 판단할 수 있습니다. 또한 이후의 중복 정보 처리과정에서 기존의 좋은 검색 정보 및 검색 이용자 선호도 정보가 사용되지 못할 수 있습니다.
이렇게 URL 변경 시에는 기존의 URL을 검색로봇에게 함께 알려줘서 기존 정보를 잘 활용할 수 있도록 하는 것이 검색 노출에 큰 도움이 됩니다.
알려주는 방법은 http 규약에 따라 301 permanently moved 형식의 redirect 를 사용하여 서버에서 응답해주시기 바랍니다.
- Old host 전체를 New host 의 top page 로 redirect (apache 웹서버)
Redirect 301 / http://new.site.com
혹은
Redirect permanent http://new.site.com
- example.com/* 을 www.example.com/* 으로 redirect (apache 웹서버)
RewriteEngine On
RewriteCond %{HTTP_HOST} example.com
RewriteRule ^([^/]*})$ http://www.example.com [R=301,L]
사이트의 장애나 잠시 페이지를 변경할 경우 302 Temporarily Moved 형식의 redirect를 사용해 주세요.
사이트에 일시적인 장애가 있거나 잠시 페이지를 변경하는 경우 검색로봇은 사이트와 그 내부 페이지에 대해 응답을 받지 못할 경우 해당 페이지가 삭제된 것으로 잘못 판단할 수 있습니다. 일시적인 페이지 변경을 인지하지 못하여 다른 정보로 변경된 것으로 판단하여 기존 정보를 삭제할 수도 있습니다.
이렇게 원하지 않는 기존 검색로봇이 수집한 원래 페이지의 정보를 유지하기를 원하신다면, 사이트에 일시적인 장애가 있거나 잠시 페이지를 변경 시 http 규약에 따라 302형식의 redirect를 사용하여 서버에서 응답해주시기 바랍니다.
- 공사중인 페이지로 redirect (apache 웹서버)
Redirect / /under_const.html
혹은
Redirect temp / /under_const.html
사이트의 성능 혹은 내부 정책 문제로 잠시 동안 네이버 검색로봇을 차단하고 싶을 때는 웹마스터도구의 트래픽 제한을 사용하세요.
일시적으로 네이버 검색로봇의 접근을 막아야 하는 경우 웹마스터도구의 수집 설정에서 트래픽 제한량을 최소로 지정하는 것을 권장합니다. robots.txt로 검색로봇을 차단하는 방법도 있지만 이 경우 해당 기간 동안에 수집된 사이트 내의 문서는 네이버 검색에서 제외될 수 있습니다.
출처 : 네이버 웹마스터 가이드
- 이전글[네이버웹마스터 가이드] 웹사이트 이전시 고려사항 21.06.01
- 다음글[네이버웹마스터 가이드] robots.txt 작성 가이드 21.05.28
댓글목록
등록된 댓글이 없습니다.