"Robots.txt"가 도대체 뭐야? 블로그나 웹사이트 운영을 하다 보면 한 번씩 들어봤을 겁니다. 그런데 많은 분들이 티스토리 관련해서 robots.txt 파일 적용을 잘못 아시고 계시고, 잘못된 정보가 너무 만연히 퍼져있는 거 같아 포스팅하게 되었습니다.
SEO 백링크 많다고진짜 알까? 마케팅 에이전시도 잘 모르는 사실 ▼
《목차》
1. Robot.txt 란?
2. Robot.txt 티스토리 적용 (팩트체크)
3. Robot.txt 네이버 적용
4. Robot.txt 일반 사이트 적용
1. Robots.txt란?
(정의) Robots.txt란 우선 사람들이 Robot.txt (로봇뒤에 s가 빠진) 것으로 잘못 알고 있는 분들이 있습니다. robot.txt가 아니고 robots.txt 가 맞습니다. Robots.txt는 검색엔진이 웹사이트나 블로그를 접근하여 정보수집을 해도 되는 페이지가 무엇인지, 해서는 안 되는 페이지가 무엇인지 알려주는 역할을 하는 일종의 텍스트 파일(메모장 파일)입니다. 이 파일은 웹 사이트 주소의 루트 디렉토리에 저장되어 있어야 검색엔진 크롤러 (로봇)가 정상적으로 사이트를 색인하고 수집할 수 있습니다. (인터넷 블로그, 웹사이트 표준 규약입니다)
(예시) 조금 쉽게 설명하자면 robots.txt 파일은 도로에 있는 교통 신호등과 비슷한 역할을 합니다. 가령 어떤 도로에 진입이 불가하다는 신호가 있을 경우 진입하지 말아야 하는 것처럼, 검색엔진 크롤러 또한 robots.txt 에서 접근을 허용되지 않은 디렉토리를 발견한다면 원칙적으로는 크롤링(수집 또는 색인) 하지 않습니다.
(이유) Robots.txt 파일이 적용되어야 하는 이유는 크게 3가지로 정리 할 수 있습니다.
- 검색엔진 크롤러의 과도한 크롤링 및 요청으로 인한 과부하 방지할 수 있습니다. 불필요한 로봇의 방문을 줄임으로써 사이트가 보다 원활하게 운영되게 할 수 있습니다.
- 반대로 말하면 검색엔진 로봇의 일일 요청 수를 뜻하는 크롤 버짓을 예측하여 검색엔진 측면에서도 효율적으로 크롤러를 운영할 수 있습니다.
- 검색엔진 크롤러에게 사이트맵 (sitemap.xml)의 위치를 제공하여 웹사이트의 콘텐츠가 검색엔진에게 더 잘 발견될 수 있도록 하기 위해서입니다. 물론 구글 서치 콘솔이나 네이버 서치 어드바이저와 같은 웹마스터 도구를 활용해 사이트맵을 검색엔진에 제출이 가능하지만, robots.txt에 사이트맵 디렉토리를 언급함으로써 사이트맵이 구글과 네이버를 포함한 다른 검색 검색엔진 크롤러에게 보다 빠르게 발견될 수 있습니다.
(파일 주소) 그래서 웹 사이트의 robots.txt 주소는 본인이 관리하는 웹사이트 URL / robots.txt 가 됩니다.
제 블로그의 robots.txt 주소는 https://seoul-nba.tistory.com/robots.txt 가 되겠죠.
2. Robots.txt. 티스토리 적용 (팩책!)
구글링을 하거나 네이버에 티스토리 블로그에 robots.txt 파일 적용하는 글들을 보면, 티스토리 스킨편집의 파일 업로드에 해당 파일을 업로드하면 된다는 부정확한 정보를 제공하는 글들이 많습니다. 위에서 언급드린거처럼 robots.txt 파일은 웹사이트 디렉토리의 가장 근본(root) 디렉토리에 저장되어야만 유효합니다. 티스토리가 사용자에게 제공하는 파일업로드 기능은 루트 디렉토리에 업로드되는 건 아닙니다.
이미 티스토리 자체 세팅으로 robots.txt를 설정하여 루트 디렉토리에 저희 파일들을 자동적으로 생성되어 업로드되어 있습니다. (해당 정보는 현업종사하는 SEO 컨설턴트, 개발자에게 확인한 정보입니다)
예시로 제가 아래처럼 테스트를 해보았는데, 파일업로드에 robot.txt 파일을 적용해도 전혀 적용되지 않은 것을 확인 할 수 있습니다. 이건 이미지 디렉토리입니다 (루트 디렉토리 x)▼
따라서 티스토리 robots.txt 파일은 일반 블로거들이 컨트롤할 수 있는 영역이 아니라고 보시면 됩니다.
많은 분들이 불확실한 정보로인해 시간낭비를 하지 않으셨으면 좋겠습니다.
3. Robots.txt 네이버 적용
위에서 언급드렸다 싶히 티스토리 같은 경우 robots.txt 파일이 이미 생성되어 있기 때문에 네이버 봇이 인식하도록 설정하기는 아주 쉽습니다.
우선 1.서치어드바이저 로그인 → 2. (검증) robots.txt → 3. 수집요청
위 과정대로하면 네이버 서치 어드바이저 세팅은 끝입니다. 참 쉽죠?
4. Robots.txt 일반 웹 사이트 적용
일반 웹사이트의 경우, 위에서 이야기한 블로그들과 다르게 직접 robots.txt 파일은 만들고 업로드를 해주어야 합니다. Robots.txt 파일을 만들었다면, robots.txt는 FTP를 활용해 반드시 웹사이트 루트 디렉토리 (웹사이트 주소에서 첫 번째 “/” 바로 뒤)에 업로드되어야 합니다. 일반적인 마케터, 운영자라면 "개발자들에게 루트 디렉토리에 이 파일을 업로드해 주세요."라고 이야기하시면 대부분의 개발자라면 이해를 하실 겁니다.
참고로 각 검색엔진의 크롤러의 이름은 다양한데, (구글) Googlebot, (네이버) Yeti, (야후) Slurp, (다음) Daumos, (빙) Bingbot, (MSN) MSNbot 등이 있습니다.
오늘은 웹 사이트 활성화에 꼭 필요한 robots.txt 적용에 대해서 포스팅을 해보았습니다.
많은 분들에게 조금이라도 도움이 되었으면 좋겠습니다.
오늘도 즐거운 하루 되시기 바랍니다^^
구글과 네이버 포스팅 노출 방법이 궁금하면 ▼
'┖ ⍟ IT 여행 > 디지털_마케팅.무역' 카테고리의 다른 글
국내 3대 B2B 플랫폼 비교 (tradeKorea, GobizKorea, buyKorea) (2) | 2023.03.01 |
---|---|
VMI & VOI 그리고 오프라인 스토어 유통구조 (0) | 2023.02.28 |
SEO 카피라이팅 전략 2편 (블로거, 마케터를 위한) (2) | 2023.02.26 |
SEO 카피라이팅 전략 1편 (블로거, 마케터를 위한) (2) | 2023.02.25 |
webp란? 사이트 이미지 최적화 기본! (3) | 2023.02.23 |
검색엔진최적화 이미지 SEO 전략 7가지 (2) | 2023.02.22 |
백링크란? 백링크 개념 및 주의사항 등 총정리 (1) | 2023.02.20 |
구글 검색순위 올리는 5가지 핵심 방법 공유 (2) | 2023.02.11 |