한 눈에 알아보는 SEO (검색엔진 최적화) 변천사 2012

대문

연일 무너위가 계속되고 있습니다.
시원하게 비가 내렸으면 좋겠다라는 바람이 있었는데 마침 주말부터 차주 내내 단비가 내린다라는 반가운 뉴스가 들리네요. 제가 세차를 하면 그 다음날 비가오는 징크스가 있는데..사실 어제 세차를 했더니…ㅎㅎ 그래도 이번 비는 아주 반가울 것 같습니다. ^^

 

이번 글은 SEO, 즉 검색엔진 최적화의 변천사에 대해서 재 정리 해 보려 합니다. 
약 3년 전인 2009년 7월에 검색엔진 최적화 변천사에 대해서 정리 한 적이 있는데 그 동안 여러 검색엔진 알고리즘의 변화들이 있었기에 현 시점에서 다시 되짚어 보는 것도 필요할 듯 합니다. 

우선 SEO 탄생 배경부터 살펴볼까요. 
과연 누가, 어떻게 SEO 라는 걸 시작하게 되었을까요?
사실 이 질문에에 대한 공식적인 답변은 없지만 일반적으로 알려진 내용은 아래와 같습니다.

현 Search Engine Land 의 운영자 Danny Sullivan이
1995년에 최초의 검색엔진 최적화 가이드 책 “Webmaster’s Guide to Search Engines” 출간 후, 그 당시 온라인 마케팅 분야에서 가장 큰 조직이었던MMG (Multi-Media Marketing Group)의 Owner인 John Audette의 요청으로MMG 직원들에게 검색엔진 상위등록 교육을 진행하면서 SEO 라는 용어가 처음으로 사용되었다고 알려져 있습니다. 

이 때 교육받았던 직원들이 현재 SEO 개척자들로 인정받고 있으며
Search Marketing의 대가들로 활동하고 있습니다. 아래 2명이 그에 해당됩니다.

 – Marshall Simmonds: 현 뉴욕타임즈 검색전략팀 최고 책임자, 구 About.com 설립자 및 CEO 
simmonds_marshall

–  Derrick Wheeler: 현 MS SEO 기획팀 최고책임
derrick-wheeler-small

위 내용대로라면, 
SEO (Search Engine Optimization)가 생겨난지 약 17년 정도가 되었네요.
짧지 않은 시간이라고 볼 수 있겠습니다.  

간략하게 SEO의 탄생 배경에 대해서 정리 해 봤습니다. 

 

그럼, 지금부터 
검색알고리즘 진화에 따른 SEO 작업 변천사에 대해서 알아보겠습니다!

 

1997년 ~ 1999년 |  키워드만 많이 노출되면 장땡!!

90년대 중반 시점부터 현재의 메이저 검색엔진들이 등장하면서 검색엔진 마케팅의 중요성이
서서히 부각되기 시작하였습니다. 그러면서 SEO 에이전시도 적지 않게 나타나기 시작한 시점이죠.

이 당시 검색엔진이 판단하는 상위등록 기준(검색 알고리즘)중에서는
웹 페이지 내 키워드 노출 횟수
가 가장 비중이 컸습니다.


키워드 노출 수, 밀도 등을 통해 키워드 관련성 및 정도를 평가하였습니다.

그렇기 때문에, 무조건 키워드만 많이 노출시키기 위한 Trick 성 SEO
(전문 용어로 Black Hat SEO 라고도 합니다) 기법이 많이 사용되었습니다. 

대표적인 작업은 아래와 같습니다.
 –  Background와 같은 칼라의 Text 사용
 –  육안으로 확인 할 수 없는 Tiny Font Size 사용
 – Title, Meta tag,  HTML Comments 등에 키워드 반복 사용 등.  

이런 정도의 작업만 열심히(?)하면 상위등록이 어렵지는 않았다고 합니다.
현재 이러한 최적화 작업은 검색엔진 상위등록 안 되는 것은 물론이고
검색엔진 검색결과에서 아예 사라질 수도 있습니다. 이는 절대로 하지말아야
하는 SEO 작업(Black Hat)입니다.

키워드의 추가로만 상위등록이 가능했던 이런 SEO 환경이
1998년 9월 Google이 등장하면서 서서히 변하기 시작 합니다.

 

1999년 ~ 2004년 | Off-Page SEO의 등장 “외부링크 수” 중요! 
여러 Trick성 SEO 작업이 인기를 끌면서
 그렇게 SEO 작업된 웹사이트들이 검색엔진 노출이
잦아지고
 정확한 검색결과를 보여주는 것의 의미가 퇴색되기에 이릅니다.

결국, 검색엔진 측에서는 “사이트 중요성” 평가에 대해 고민에 빠집니다. 그러한 고민 끝에
Off-Page 요소가 등장하게 되고 
여러 검색엔진에서 외부링크 개수를 사이트 평가 기준의
하나로 도입하게 됩니다.

많은 사람들이 알고 있듯이,
Google은 PR (PageRank)라는 외부링크 인기도 체크 시스템을 도입하여 인터넷 유저들에게
더욱 정확한 검색결과를 제공함으로써 
2002년에 Yahoo을 제치고 검색엔진 점유율 1위를
차지하게 됩니다.

Off-Page SEO, 즉 외부링크 수 확장의 기본적인 작업은 아래와 같습니다.

  – 디렉토리 검색엔진 등록
  – 외부 페이지 내 링크 확장
  – 사이트 내부 페이지 내 링크 확장

외부 링크 수가 아닌 다른 평가 방법으로는
검색결과 페이지 클릭 수에 따른 사이트 중요도 평가를 하는 “Click-Tracking”가 있으며
그 시기에 DirectHit(현재, AskJeeves가 인수함)에 의해 도입 되었습니다.

 

이런 개선도 얼마 지나지 않아
“Link Farm” 이라는 외부링크 모음 페이지 작업을 통해
외부링크 수를 무작정 증가시키는 SEO작업으로 변질되기에 이릅니다.

참… SEO 업체들도 대단하다는 생각이 절로 드네요~

 

현재는 “Link Farm” 작업을 통한 SEO는 절대 불가합니다.
해당 페이지가 스팸으로 인식되어 검색결과에서 사라질 확률이 아주 높기 때문입니다.

하지만, 역시 이런 환경도 Google 알고리즘 업데이트 역사 상 가장 큰 변화를 주었다는
“Google Florida Dance”(2004년도 초 적용 됨)를 통해 또 한번의 작은 변화를 겪게 됩니다.

2004년 ~ 2007년 | On-Page, Off-Page SEO도 양보다는 질로 평가!

앞서 말한 Google Florida Dance의 알고리즘 변화의 요점 정리는 아래와 같습니다.

  1) SEO Filter : On-Page, Off-Page SEO 작업에 있어서 과다한 작업은 SEO Filter 기능을 통해
걸려지며 순위가 오히려 다운 됨.

  2) Local Rank : 검색결과 내 존재하는 페이지의 외부링크 인기도를 분석해 외부링크 질 평가

  3) Commercial list : 상업적인 내용을 너무 강조한 contents을 담고 있으면 순위 하락.                        

  4) Stemming: word-stem 시스템 도입: 직접 키워드 관련성 뿐만 아니라 word-stem 키워드에게도 확장 적용.
          (e.g. Drink’s word stem – drinks, drinking, drinker and drinkers etc.)

위 작업들의 주된 목적은
“페이지 관련성을 양보다는 질적으로 평가하여 검색결과에 반영”이라고 할 수 있습니다.

당연히, “Link Farm” 같은 문제적가 되는 작업은 사라지게 됩니다.

2007년 ~ 2009년 | Blended Search를 위한 다양한 컨텐츠 SEO 필수!

Blog를 포함해 여러 Social Media 사이트의 인기가 높아지면서,
검색엔진도 인터넷 유저들의 다양한 정보욕구를 해결하고자
웹 페이지 결과 뿐만 아니라 멀티미디어, 뉴스, Blog, 지도 등을 다양하게,
관련성 높은 순위로 보여주는 Blended Search 결과를 제공하기 시작합니다.

Google은 2007년 5월, Yahoo는 같은 해 10월에 Blended Search를 런칭하게 됩니다.

그 결과,
이제는 단순히 웹 페이지 뿐만이 아닌 다양한 웹 콘텐츠의 SEO 필요성이 높아졌습니다.

또한, Social Media 사이트의 인기로 인해 이들 사이트의 링크확장 작업도
SEO작업에 필수가 되었습니다.

물론, 기본적인 On-Page/Off-Page 작업이 진행에는 변함이 없습니다.
사실, 기본적인 것이 가장 중요하죠. 

2010년 ~ 현재 | Quality, Freshness & Over-Optimization

Google은 2010년에 Fresher Results 제공이라는 목적으로 Caffeine Update 라는
큰 알고리즘 업데이트를 하게 됩니다.

이어서 2011년에는 개인적으로 Panda 라는 동물이 싫어질(?) 정도로 Quality 평가
강화된 대대적인 Panda Update가 시작되고
현재까지 이어지고 있습니다. 

또한, 최근에는 Penguin Update 라 하여 스팸 성 contents를 강력하게 처단(?)하는
알고리즘 업데이트와 과다한 최적화를 한 사이트에도 penalty를 주는
Over-optimization 알고리즘 업데이트도 실행 되었습니다.  

이러한 변화에 따라 최적화 작업 시, Thin Contents (contents 양 너무 적은 페이지)
작성은 지양해야 하며, 과다한 최적화 적용 (예를들면, Title에 여러 키워드를
타게팅한다던지 중복 키워드를 불필요하게 사용하는 경우)는 피해야 합니다.

사실 전에 없었던 신규 알고리즘 업데이트는 아닙니다. 기존에 있던 알고리즘 요소 중에
특히 강화한 요소라고 생각하시면 될 것 같습니다.

 

 

이상으로 SEO 최적화 변천사를 정리 해 보았습니다.
Google이 이러한 변화가 있으면 Bing도 이어서 비슷한 알고리즘이 반영이되고 시간이 좀 더
흐르면 중국의 Baidu, 러시아의 Yandex 검색엔진도 적용하게 되는 것이 일반적인 추세입니다.

앞으로 어떠한 변화가 있을 지 궁금하네요.
이러한 변화가 있을 때 관련해서 정리 해 보도록 하겠습니다. 

긴 글 읽어주셔서 감사합니다. 

 

Google 검색 알고리즘 업데이트!! Google Panda~!

안녕하세요~ 아티언스 홍일점 YunHeeC 입니다.

최근 Google 검색 알고리즘이 업데이트 된 사실을 알고 계셨나요?
Google에서 상세 내용을 공식 발표 하지 않았고, 한국어권은 이번 업데이트에서 제외가 되었기 때문에 아마 많은 분들이 눈치채지 못하셨을거라 생각합니다.
그래서 정리 합니다. “Google Panda Update”!!

panda

이번에 업데이트 된 Google 검색 알고리즘에 이름은 “Panda” 입니다.
Google의 검색 알고리즘은 최소 1년 ~ 2년에 한번씩 대대적인 업데이트를 하게 됩니다. 이럴때 마다 Google 검색 결과는 술렁술렁 흔들리며 여러 Webmaster 혹은 SEOer 들은 눈물을 흘린 답니다.
대대적인 업데이트 이외에도 1년에 300번이 넘는 자잔한 업데이트가 이루워 진다고 합니다.
(정신 바짝 차리지 않으면…밥줄이 날라갈지도 몰라요…ㅠ.,ㅠ)

Google Panda 업데이트는 2009년 Google Caffeine 업데이트 이 후 2년만에 이루어진 대대적인 업데이트 였습니다.
Google Panda 업데이트의 징조는 2011년 1월 Google Farmer 업데이트 부터 슬슬 나타나기 시작했습니다.
올 해 1월 Google은 검색결과에 불필요하게 보여지는 “Thin Contents (질 낮은 컨텐츠)” 와 전쟁을 선포합니다.
동시에 이런 컨텐츠를 걸러내기 위한 Google Farmer 업데이트를 진행합니다.

이 후 올해 2월부터 대대적인 Google Panda 업데이트가 이루어 졌습니다.

<Google Panda Update>
: 무수히 많은 컨텐츠 중질 낮은 컨텐츠가려내기 위한 Google 알고리즘 업데이트.
– Panda 1.0 : 2011.02.24
– Panda 2.0 : 2011.04.11
– Panda 2.1 : 2011.05.10
– Panda 2.2 : 2011.06.16
– Panda 2.3 : 2011.07.23
– Panda 언어 확장 : 2011.08.10 (중국어, 일본어, 한국어를 제외한 전 세계 언어로 확장)

Google Panda는 “질 낮은 컨텐츠”를 가려내기 위한 알고리즘이라고 합니다. 그렇다면 여기서 “질 낮은 컨텐츠”를 구분하는 정확한 기준은 무엇일까요? 이 부분에 대해서 Google은 명확한 답변을 하지 않습니다. 다만 아래와 같은 난해한 질문들만 하고 있습니다.

<What counts as a high-quality contents?>
– Would you trust the information presented in the page?
– Does the site have duplicate, overlapping or redundant articles on the same or similar topics with slightly
different keyword variation?
– How much quality control is done on content?

위와 같은 질문에 긍정적으로 답할 수 있따면 “질 좋은 컨텐츠”로 여겨지는 걸까요?
자세한 내용은 Google webmaster Blog에서 확인하실 수 있습니다.

이번 Google Panda 업데이트로 인하여 영어권은 전체 조회 키워드의 12%가 영향을 받았으며, 기타 언어권은 약 6~8%가 영향을 받을 것이라 합니다. SEOer 중 한 명으로써 짱짱히 잘 나가던 사이트가 하루아침에 사라지는 경우를 Panda 이후에 종종 보고 들을 수 있었습니다. 그렇다면 무엇을 해야 할까요?

사이트 내 “질 낮은 컨텐츠”를 최소화 하는 것입니다. (호호호…Google과 같이 원론적인 이야기 이죠?)
“질 낮은 컨텐츠”의 원인이 되는 무수히 많은 원인이 있을 수 있습니다. 그러나 이번 업데이트로 패널티를 받은 사이트들의 공통 요소는 바로 “중복 컨텐츠”와 “링크” 요소가 많았다고 합니다.

 – 중복 컨턴츠(Duplicate Contents) : 서로 다른 URL인데 전체적으로 완전히 같은 컨텐츠를 사용하고 있거나 일부 컨텐츠가 같은 경우를 의미. 자세한 내용은 “중복 컨텐츠 검색엔진 최적화 TIP 에서 확인 하세요~! – 중복 컨텐츠 종류
a. Internal True Duplicate : 하나의 사이트 내 정확하게 동일한 다 수의 컨텐츠 존재
b. External True Duplicate : 정확하게 동일한 다 수의 컨텐츠가 여러 도메인으로 존재 (e.g. 불법 스크렙 등)
c. Internal Near Duplicate : 하나의 사이트 내 소량의 내용만 다른 유사컨텐츠가 존재
(e.g. 색상이나 사이즈가 다른 동일 제품을 설명 하는 페이지)
d. External Near Duplicate : 소량의 내용만 다른 유사컨텐츠가 여러 도메인으로 존재
(e.g. 재조사 페이지와 상품을 파는 쇼핑몰 사이트)

“링크”적인 요소는 어떤 것을 의미할까요?

 – 링크적 요소 : 페이지 내 불필요한 링크들로 인하여 페이지 컨텐츠 가치가 하락하는 경우 – 예시
a. Heavy Template Footprint : 오리지널 컨텐츠보다 불필요한 링크가 더 많은 경우
147044384E5357331AB6B7

b. High AD Ratio : 사이트 내 컨텐츠 보다 광고가 더 많은 경우

위 두 경우 모두 실질적인 컨텐츠를 강조하지 못하기 때문에 Google 입장에서는 불필요한 정보가 더 많은 “질이 낮은 컨텐츠”로 인식하게 됩니다.

“중복 컨텐츠”와 “링크적 요인”이 Google Panda 업데이트로 인한 페널티를 받게 되는 절대적인 원인은 물론 아닙니다.
다만 비중있는 지표로 사용됨은 어느정도 인정해야 하지 않을 듯 합니다.
만약 이번 Google Panda 업데이트로 인하여 잘 나가던 사이트가 검색결과에서 사라졌다면, 위 요소들을 한번 고려해 보실 수 있을 듯 합니다.

Google Panda 뒷 이야기.
a. Google Panda 업데이트는 페이지 레벨의 페널티를 부여 하는 것이 아니라 사이트 레벨에 페널티를 부여 합니다.
즉, 사이트 내 몇몇 페이지의 문제로 인하여 사이트 자체가 검색 결과에서 사라지게 될 수 있다는 것이죠.
b. Google Panda 알고리즘을 짜기 위하여 처음에는 사람이 수동으로 알고리즘 요소를 뽑아 냈다고 합니다.
알고리즘을 짜고 사람이 테스트를 한게 아니라, 사람들이 수동으로 여러 요소를 우선 선별 하여 각 사이트 별 점수를 부여하고 이를 알고리즘 화 하여 테스트 하여 각 사이트의 사람이 직접 부여한 점수와 시스템이 부여한 점수가 어느정도 일치되는지를 일일이 확인했다고 하네요…. 독합니다. ㅡ.ㅡ;;;

얼마 전 Google의 검색 알고리즘 업데이트 히스토리를 정리하시던 저희 실장님께서..”Google의 큼지막한 업데이트는 모두 홀 수 년도에 이루어 지는데” 라는 말씀을 하셨습니다. 그 말이 사실이라면 2013년까지는 조금 안심 할 수 있을 것이라 스스로를 위로해 봅니다.