네이버의 검색결과 수집에 대한 정책 > 웹문서/검색 마케팅

본문 바로가기
사이트 내 전체검색

웹문서/검색 마케팅

네이버의 검색결과 수집에 대한 정책

페이지 정보

profile_image
작성자 애드모임
댓글 0건 조회 8,150회 작성일 21-03-30 15:33

본문

1. 검색결과의 수집

네이버 웹문서 검색은 네이버 로봇 프로그램이 인터넷을 자동으로 돌아다니며 수집한 국내외의 다양한 웹문서들을 그 대상으로 합니다.
네이버 웹문서 검색은 국내 최대 용량, 최고 품질의 서비스를 제공하기 위해 다양하게 노력하고 있습니다.
네이버 웹문서 검색은 인터넷 상에 소중한 정보들을 게시 제공한 웹 운영자와 저작자들의 의견을 존중하며 로봇 운영에 대한 국제적 기준을 준수하기 위해 최선을 다하고 있습니다.

2. 검색결과에서 제외되거나 운영에 의견이 있는 경우

  1. (1) 네이버 웹문서 검색 결과에 보여지고 싶지 않거나, 로봇에 의해 수집되지 않고 싶을 경우, 먼저 해당 홈페이지의 루트 디렉토리에 국제적 로봇 배제 장치인 robots.txt를 설치해 주시기 바랍니다. robots.txt 에 대한 자세한 설명은 www.robotstxt.org 를 참고해주시기 바랍니다.
  2. (2) 이를 설치하신 후 네이버 검색이 해당 변경 상태를 재확인하는데는 다소의 시간이 걸릴 수 있으므로, 네이버 검색 결과에서 해당 결과가 즉시 제거되지 않을 수 있습니다. 만일, 즉시 삭제가 되어야 하거나 부득이한 상황이 있는 경우 웹문서 삭제 처리 방법을 통해 문의 주시기 바랍니다.
  3. (3) 네이버 웹문서 검색 결과에 수록된 내용이나 네이버 로봇의 작동으로 인해 불편을 느끼시거나 운영에 의견이 있으신 경우, 웹문서 삭제 처리 방법을 통해 문의 주시기 바랍니다.

참고) robots.txt 를 설치한 사이트이고 네이버 로봇이 방문하지 않는 것 같습니다만. 네이버 검색 결과에 지속적으로 나타납니다.

robots.txt 를 설치하고 로봇이 직접 방문하지 않는 경우라고 하더라도 네이버 웹문서 검색 결과에 문서 내용의 일부 없이 링크가 표시되는 경우가 있을 수 있습니다. 이는 다른 웹문서들이나 사이트들이 해당 웹문서를 링크한 경우, 그 링크에 제시된 설명에 의해서 자동적으로 생성되는 것으로 해당 웹 사이트의 robots.txt 설치나 로봇의 동작과는 무관할 수 있습니다.
만일 이 경우에도 노출을 원하지 않는 경우에는 웹문서 삭제 처리 방법을 통해 문의 주시기 바랍니다.

3. 네이버 검색과 robots.txt 에 대하여

  1. (1) 네이버의 검색 로봇은 robots.txt에 따르는 국제적인 검색 규약을 준수합니다.
    자세한 내용은 http://www.robotstxt.org/ 을 참조하세요.
  2. (2) robots.txt는 사이트나 문서를 검색으로부터 제외하는 표준 규약으로서 검색업체들은 이 파일이 설치되어 있는 사이트나 이를 통해 지정된 페이지의 문서는 읽어오지 않습니다. 이는 검색을 위한 문서 수집의 과정에서 사이트 운영자와 이용자의 입장을 우선하고, 올바른 인터넷 발전의 취지에 맞는 개인정보보호나 저작권 보호의 문제를 중요하게 다루기 위함입니다.
  3. (3) 사이트 운영자나 저작권자가 인터넷에서 열람 할 수 있도록 공개한 문서라 할지라도 이를 검색 로봇이 이용하거나 복제할 수 있도록 허가한 것은 아닙니다. 특히 개인적인 문서나 정보를 검색 등의 이유로 수집 당하게 될 경우 저작권 침해 또는 개인정보 유출의 문제가 발생합니다. 그러므로 robots.txt를 설치한 경우, 검색 로봇에 의한 문서 수집을 불허 한다는 의사표시 입니다.
  4. (4) 따라서 네이버를 포함한 전세계의 양식 있는 검색 서비스들이나 수집 프로그램들은 이러한 공통의 robots.txt 규약을 제정하고, 이 파일이 설치된 경우에 대하여는 검색 등의 수집을 중지하여 정보 보호와 인터넷 역기능 방지에 노력하고 있습니다.

4. 네이버의 데이터 베이스에 대한 보호

  1. (1) 네이버는 네이버 서비스를 이용하여 구축되는 데이터 베이스에 대하여 robots.txt 파일 등의 소정의 저작권 보호 장치로써 이를 보호하고 있습니다.
    robots.txt로 보호되고 있는 데이터 베이스를 네이버의 로봇이 아닌 타 검색 로봇이 수집하는 것을 불허합니다.
  2. (2) robots.txt를 무시하고 네이버 데이터 베이스를 계속 수집하는 경우
    • - 네이버 회원만의 고유한 개인정보가 유출될 수 있습니다.
    • - 네이버 서비스에서 이용하는 회원들의 게시물이나 창작물이 회원의 의사에 반하여 다른 곳에서 보여지고 원하지 않은 방향으로 이용될 수 있습니다.
    • - 네이버 서비스 내에서 비공개로 작성되거나 삭제된 게시물이 작성자의 의사에 반하여 공개되거나 지속적으로 게시 유포될 수 있습니다.
  3. (3) 따라서 네이버의 데이터베이스를 수집해가는 행위는 고의성의 여부를 불문하고 국제적인 인터넷 검색 서비스와 개인 정보 보호를 위한 규칙에 어긋나는 것이며, 앞서와 같은 문제와 피해 사항들이 발생할 위험이 크고, 경우에 따라 저작권 침해 또는 정보통신망 이용촉진 및 정보보호에 관한 법률 등에 위반될 수 있습니다.
  4. (4) RSS와 robots.txt ( robots.txt 적용의 예외 )
    네이버는 사용자들이 저작한 컨텐츠에 대해 RSS 허용 여부를 설정할 수 있는 기능을 제공하고 있습니다.
    RSS허용은 컨텐츠의 원 저작자인 사용자가 자신의 컨텐츠를 외부에 적극적으로 배포하고자 하는 경우 설정할 수 있는 컨텐츠의 공개 방법입니다.
    따라서 robots.txt 파일이 설치되어 있는 사이트라 하더라도 사용자가 RSS 공개를 허용하였다면, 이는 robots.txt 에 우선하여 적용됩니다.
    즉, 사용자가 RSS를 허용한 컨텐츠는 robots.txt 의 존재 유무와 상관 없이 RSS를 통해 수집 및 검색이 가능합니다.

    네이버의 데이터베이스에 설치된 robots.txt 파일 등의 소정의 저작권 보호 장치 및 관련 규정을 무시하고 계속 데이터를 수집할 경우 네이버의 서버와 데이터 보호 뿐 아니라 회원들의 개인정보 및 저작권 보호를 위해 네이버는 해당 행위에 대하여 법적 절차를 포함하여 엄중한 책임을 물을 것입니다.



댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

Copyright © admoim.kr All rights reserved.