구글 검색센터의 고급 검색엔진 최적화에 있는 구글 웹마스터 가이드라인에 대한 정리 글이다.
이를 지키지 않으면 저품질 블로그로 간주되어 구글 검색 결과에서 누락될 수 있다.
구글 seo 기본 가이드와 어느 정도 중복되는 내용이 있지만 추후에 다 포함하여 총정리를 하도록 하겠다.
구글 웹마스터 가이드라인 개요
웹마스터 가이드라인은 사이트가 Google 검색에 표시되도록 돕는 일반적인 권장사항이자, 준수하지 않으면 페이지 또는 사이트가 Google 검색에서 누락될 수 있는 품질 가이드라인입니다.
일반적으로 저품질 블로그에 걸려서 검색 결과 상위에 노출이 되지 않는다라고 말하는 경우가 이 웹마스터 가이드라인을 지키지 않은 경우이다.
- 일반 가이드 라인
- 구글이 찾을 수 있는 페이지 만들기
- 구글이 이해할 수 있는 페이지 만들기
- 방문자가 사용할 수 있는 페이지 만들기
- 기본 원칙
- 검색 엔진을 위해서가 아니라 사용자를 위한 페이지를 만듭니다
- 사용자를 속이지 않습니다
- 검색 엔진 순위를 높이기 위해 속임수를 쓰지 않습니다
- 전문 분야에서 다른 경쟁자와 차별화되도록 합니다
- 구체적인 가이드 라인
- 다음은 사용하지 마세요
- 자동으로 생성된 콘텐츠
- 링크 전략에 참여
- 자체 제작한 콘텐츠가 거의 또는 전혀 없는 페이지 생성
- 클로킹
- 부적절한 리디렉션
- 숨겨진 텍스트나 링크
- 도어웨이 페이지
- 스크랩한 콘텐츠
- 충분한 가치를 더하지 않으며 제휴사에 참여
- 관련 없는 키워드로 페이지 로드
- 피싱 또는 바이러스, 트로이 목마, 기타 베드웨어 설치 등 악의적인 행위가 이루어지는 페이지 생성
- 구조화된 데이터 마크업 악용
- 자동화된 검색어를 구글에 전송
- 다음을 따르세요
- 사이트 해킹 여부를 모니터링하고 해킹된 콘텐츠를 발견하는 즉시 삭제
- 사이트에서 사용자 생성 스팸 방지 및 삭제
- 다음은 사용하지 마세요
구글 웹마스터 가이드 - 일반 가이드 라인 - 추가 설명
"구글이 찾을 수 있는 페이지 만들기"란 무엇일까? 앞서 포스팅한 글처럼 구글 검색 엔진(구글 봇)이 내 웹사이트를 찾을 수 있도록
- 내 웹사이트 중 구글 검색이 되는 페이지에서 다른 모든 페이지로 연결이 될 수 있는지 확인한다.(<a> 태그의 href 속성만 구글 봇이 크롤링한다)
- 사이트 맵을 제공 한다
- 페이지에 있는 링크 개수를 적절한 수준으로 제한한다(최대 몇 천 개)
- If-Modified-Since HTTP 헤더 사용하여 크롤링 리소스 관리
- robots.txt로 사이트 내 검색 결과 페이지와 같은 무한 공간에 대한 크롤링을 방지함으로 크롤링 리소스 관리
- 구글에 크롤링 요청하기
- 내 사이트가 온라인 상태임을 타 사이트에서 알리기
등을 따르는 것이다. 자세히 설명하자면 1의 경우 티스토리 글쓰기의 기본 모드-> HTML로 바꾸어 링크를 수정하면 된다. 2의 경우 이미 앞선 포스팅에서 다룬 내용이다. 4의 경우는 확인해보니 티스토리는 If-Modified_Since 헤더를 사용하지 않는 것 같다. 이에 대해선 문의를 한 상태이니 답변이 오면 추후에 포스팅해보겠다. 5의 경우 구글 서치 콘솔에서 검색 결과 페이지를 robots.txt에 적어 접근을 제한하면 된다. 이후 robots.txt 에서 다루도록 하겠다. 6번의 경우 앞선 포스팅에서 말했듯 구글 서치 콘솔-> URL 검사에서 크롤링을 개별 페이지로 요청할 수 있다. 7번의 경우 홍보하기와 맥락을 같이 한다.
"구글이 이해할 수 있는 페이지 만들기"란 무엇일까? 구글 검색엔진은 사람이 아니다. 구글 봇은 사이트를 이해하기 위해 특정한 html 태그나 페이지 내의 키워드를 통해 페이지의 주제에 대해 이해하고 url의 계층구조를 통해 사이트의 계층구조를 이해한다. 우리가 구글이 우리 페이지를 이해하기 위해 할 수 있는 일들은 다음과 같다
- <title> 태그 및 <image>의 alt 속성을 구체적이고 정확하게 짓는다
- robots.txt가 페이지 렌더링에 중대한 영향을 미치는 css, js 파일(에셋)에 대한 접근을 제한하지 않도록 한다
- URL 검사 도구로 크롤링 봇이 페이지 렌더링에 영향을 미치는 에셋에 대한 접근이 허용되어 있는지 확인한다
- robots.txt 파일의 명령어가 정상적으로 동작하는지 robots.txt 테스터 도구를 사용하여 확인한다
- 온전한 색인 생성을 위해 세션 ID 또는 URL 매개변수 등이 없이도 사이트를 크롤링할 수 있도록 허용한다.(티스토리의 경우 해당하지 않음. 개별 사용자에 대한 로그인 등을 처리해야 하는 회원제 사이트의 경우에만 해당)
- 중요한 콘텐츠는 기본적으로 표시될 수 있도록 한다. 텍스트 숨기기 등을 이용해 숨기지 않도록 한다
- 페이지의 광고 링크가 검색엔진 순위에 영향을 미치지 않도록 robots.txt, rel="nofollow" 또는 rel="sponsored"를 사용하여 크롤러가 광고 링크를 추적하지 않도록 한다
"방문자가 사용할 수 있는 페이지를 만들기"란 무엇일까? 방문자의 모든 상황을 가정하여 페이지를 구성하는 것이다. 인터넷이 느린 사용자나, pc가 아닌 모바일 기기 등을 사용하는 사용자, 다양한 브라우저의 사용자 또는 시각장애인까지 고려하여 페이지를 구성해야 한다. 구체적으로는
- 이미지가 아닌 텍스트를 사용하여 중요한 정보를 표시한다. <image>에 있는 text는 크롤러가 인식할 수 없다. alt 속성을 추가하여 이미지의 콘텐츠를 설명하는 것도 이미지를 로드할 수 없는 사용자에게 도움이 된다.
- 모든 링크가 유효한지 확인한다.
- 페이지 로드 시간을 최적화한다.
- PageSpeed Insight나 Webpagetest.org와 같은 도구로 페이지 성능을 테스트한다.
- <image>의 loading="lazy" 속성을 추가한다.
- 모든 기기 유형에 맞게 사이트를 디자인한다.
- 모바일 친화성 테스트 도구로 확인한다.
- 사이트가 다양한 브라우저(크롬, 인터넷 익스플로러, 파이어 폭스 등)에서 제대로 표시되는지 확인한다.
- 시각장애인 사용자를 위해 스크린 리더로 사용성을 테스트한다.
구글 웹마스터 가이드라인 - 구체적인 가이드라인 - 추가 설명
다음의 해당하는 기술은 사용하면 안 된다.
- 자동으로 생성된 콘텐츠 : 프로그램적인 방식으로 생성된 콘텐츠
- 검색 키워드가 포함되어 있지만 독자에게 의미가 없는 콘텐츠
- 자동화된 도구로 번역되었지만 게시 전에 사람의 검토 또는 선별을 거치지 않은 텍스트
- 마르코프 연쇄와 같이 자동화된 프로세스를 통해 생성된 콘텐츠
- 자동화된 동의어 분석 또는 난독화 기술을 사용하여 생성된 콘텐츠
- Atom/RSS 피드 또는 검색 결과를 스크랩하여 생성된 콘텐츠
- 충분한 가치 창출 없이 여러 웹페이지의 내용을 결합하거나 병합한 콘텐츠
- 링크 전략에 참여 : 페이지에 대한 링크가 많으면 그래프적으로 순위가 높아짐을 악용하는 전략
- 과도한 링크 교환(조건부 상호 링크 교환)또는 상호 링크 교환만을 목적으로 하는 파트너 페이지
- 링크를 사고파는 행위
- 키워드가 많은 앵커 텍스트(또는 링크 텍스트)를 포함하는 대규모 게시물 마케팅 또는 고객 게시물 캠페인
- 사이트에 대한 링크를 자동으로 생성하는 프로그램 또는 서비스를 사용
- 기타 사이트 순위를 조작하기 위한 링크에 연관된 비정상적인 행동
- 자체 제작한 콘텐츠가 거의 또는 전혀 없는 페이지 생성
- 스크랩한 페이지
- 도어웨이 페이지
- 자동으로 생성한 콘텐츠
- 제휴 프로그램(광고)이 부실
- 클로킹 : 사용자와 검색엔진에 각각 다른 콘텐츠나 URL을 제공하는 행위
- 부적절한 리디렉션(초기에 요청한 URL을 다른 URL로 돌려 제공하는 행위)
- pc 사용자의 경우 일반 페이지가 표시되지만 모바일 사용자에게는 완전히 다른 스팸 페이지로 리디렉션
- 검색엔진에게는 일반 페이지를 제공하지만 사용자에게는 별도의 콘텐츠로 리디렉션
- 단, 사이트 이전이나 통합 등의 이유로 정상적인 리디렉션의 경우는 제한 사유에 해당하지 않음
- 숨겨진 텍스트나 링크
- 흰색 배경에 흰색 글
- 이미지 뒤에 텍스트 배치
- css를 사용하여 텍스트를 화면에 보이지 않도록 배치
- 글꼴 크기를 0으로 조정
- 단락 중간에 사용된 하이픈 등과 같이 작은 문자 안에 링크 숨김
- 기타 사용자를 기만하기 위한 모든 텍스트나 링크 숨김
- 단, 이미지나 동영상, 자바스크립트 등을 설명하기 위한 숨겨진 텍스트 등은 허용
- 도어웨이 페이지 : 특정 검색어에 대한 순위가 높게 나타나도록 만들어진 사이트
- 여러 개의 도메인이나 페이지를 사용하여 사용자를 하나의 페이지로 유도
- 검색 결과에 가까운 페이지
- 스크랩한 콘텐츠
- 실질적인 부가가치 없이 동영상, 이미지, 기타 미디어 만을 포함하는 사이트도 포함
- 충분한 가치를 더하지 않으며 제휴사 프로그램에 참여
- 원래 판매자의 사이트에서 그대로 콘텐츠를 복사하여 포스팅한 경우
- 사이트의 콘텐츠 대부분이 제품 제휴를 위한 페이지이며 사용자에게 부가 가치를 제공하는 내용은 매우 조금 포함된 경우
- 관련 없는 키워드로 페이지 로드
- 유인 키워드 반복 : 사이트 순위를 조작하기 위해 키워드나 숫자를 페이지에 채워 넣는 행위
- 가치를 창출하지 않는 전화번호 목록
- 웹페이지가 높은 순위를 기록하려고 하는 도시 및 지역을 나열하는 텍스트 블록
- 부자연스럽게 느껴질 정도로 동일한 단어 및 구문 반복
- 유인 키워드 반복 : 사이트 순위를 조작하기 위해 키워드나 숫자를 페이지에 채워 넣는 행위
- 피싱 또는 바이러스, 트로이 목마, 기타 배드 웨어 설치 등 악의적 행위가 이루어지는 페이지 생성
- 구조화된 데이터 마크업 악용
- 자동화된 검색어를 구글에 전송
사실, 티스토리에서 블로거가 조작할 수 있는 부분에 대해서만 보면, 링크나 광곡 robots.txt에 대해 신경 쓰고 악의적인 콘텐츠를 지양하고, 몇 가지 html 태그나 속성을 신경 써주면 된다. 나중에 seo 총정리할 때 이 부분을 모두 정리해서 말하도록 하겠다.
다음 포스팅은 RSS 관련하여 말을 하도록 하겠다.
'부업' 카테고리의 다른 글
수익형 블로그 만들기 7 - 구글 robots.txt 정리, 페이지 랭크, 백링크 (0) | 2021.02.14 |
---|---|
수익형 블로그 만들기 6 - RSS 등록(RSS vs. Sitemap) (0) | 2021.02.14 |
수익형 블로그 만들기 4 - seo 전략 개요 (0) | 2021.02.13 |
수익형 블로그 만들기 3 - 네이버 웹마스터 사이트 등록 (0) | 2021.02.12 |
수익형 블로그 만들기 2 - seo, 사이트 맵, 소유권 확인 (0) | 2021.02.12 |
댓글