검색 엔진 최적화 (SEO, Search Engine Optimization)
웹 사이트가 검색 결과 첫 페이지에 노출될 수 있도록 사이트를 개선하는 작업. 온 페이지 SEO와 오프 페이지 SEO로 나뉜다.
온 페이지 SEO vs. 오프 페이지 SEO
- 온 페이지 SEO: 웹 사이트 내에 있는 HTML 요소, 서버 요소, 핵심 키워드를 대상으로 한다.
- 오프 페이지 SEO: 웹 사이트 밖에서 활동하는 소셜 미디어, 타 웹사이트 링크 등을 말한다.
온 페이지 SEO
1. 테크니컬 SEO
웹 사이트 규모별 총 30~50여 개 HTML SEO 요소를 작성 및 점검하여 HTML 외 요소로 최근 구글 및 네이버에서 중요시하고 있는 속도, 모바일, 서버 최적화 및 네이버 Search Advisor, 구글 Search Console을 최적화한다.
2. 콘텐츠 SEO
주요 포털사의 키워드 검색 결과와 자사 및 경쟁사의 키워드를 분석하여 핵심 & 연관 키워드를 선정하고, 키워드별 검색량 및 적합도를 측정하는 키워드 리서치를 수행한다. 또한 리서치 결과를 웹 페이지에 적용하고 검색 결과를 지속적으로 모니터링하여 상위 노출을 위한 데이터 기반 키워드 로드맵과 전략을 실행한다.
오프 페이지 SEO
1. 링크 빌딩 SEO
SEO 최적화의 퍼포먼스를 극대화할 수 있는 핵심 & 연관 키워드 중심으로 백링크 전략을 실시하여 키워드가 상위로 노출될 수 있게 한다. 고품질의 링크를 통해 context에 맞는 키워드를 배치하고, 국내 실정에 맞는 서버 로케이션 중심으로 권한 높은 DA(Domain Authority) 도메인 위주로 작업을 진행하여 상위 노출 효과를 극대화한다.
메타 태그(Meta tag)를 통한 검색 엔진 최적화 방법
1) title
타이틀 태그는 웹 페이지의 고유 제목이며, 검색 엔진이 웹 페이지를 읽을 때 가장 먼저 읽는 내용이다. 타이틀 태그를 통해 콘텐츠를 간결하지만 정확하게 설명하자.
<title> 웹 페이지 타이틀 </title>
2) description
검색자가 설명문을 통해 찾고 있는 주제를 다루고 있는 글인지를 판단하는데 도움을 준다. 작성 길이는 구글 기준 160자 미만, 네이버 기준 80자 미만이다. 구글 및 네이버 검색 결과 웹 페이지 제목 및 설명 부분이다. 웹 페이지에서 Ctrl + U 를 누르거나 페이지 소스 보기를 통해 볼 수 있다.
<meta name="description" content="웹 페이지 설명">
3) keywords
웹 페이지 문서에서 핵심 검색 단어를 설정한다.
<meta name="keywords" content="핵심 검색 키워드">
그 밖의 최적화 방법들
1) h 태그(h1~h2)
HTML에서 제목, 소제목 및 단락을 기술하기 위해 사용한다. h1은 문서의 대제목이며, h2는 그 아래 (여러 개의) 소제목에 해당한다. 웹 페이지의 주제를 알기 쉽게 하여 검색 엔진과 사용자가 정보를 제대로 알 수 있도록 해주어야 한다. h1 태그는 가장 상위의 큰 제목이기 때문에 반드시 적용해야 한다.
<h1>문서의 제목<h1>
<h2>단락 별 소제목<h2>
<h2>단락 별 소제목<h2>
<h2>단락 별 소제목<h2>
2) 단순 URL (Permanent Links, Friendly URL)
단순한 URL을 통해 사용자가 콘텐츠를 더 친숙하게 이해할 수 있다. URL을 단순하게 만드려면, ① 콘텐츠 및 구조와 관련된 단어를 사용하고, ② 사용자가 어디에 머물고 있는지 알기 쉽도록 디렉터리 구조를 간단히 사용해야 한다
좋은 예: https://example.com/front-end
나쁜 예: https://example.com/12345
3) 시맨틱 요소
https://is-this-it.tistory.com/47
Semantic한 HTML 작성
시맨틱 요소 (Semantic Elements) semantic [sɪˈmæntɪk] Adjective 언어 의미의, 의미론적인 수 년 전에 어느 IT 회사에서 PM팀으로 일을 했을 때 semantic 이라는 단어가 많이 보였었는데, 개발 관련 지식이..
is-this-it.tistory.com
4) robots.txt & sitemap.xml
robots.txt는 검색 엔젠 로봇의 접근을 제어하고 관리한다. 이 파일이 없으면 각종 검색 엔진이 웹 사이트에서 찾을 수 있는 모든 페이지를 크롤링한다. 아래와 같이 파일 내에 크롤러 정보와 접근 허용 및 비허용 디렉토리를 설정해놓으면 된다.
# Group 1
User-agent: Googlebot
Disallow: /essay
Allow: /tag/
# Group 2
User-agent: *
Disallow: /tag/
Disallow: /tags
반면, sitemap.xml은 검색 엔진에 페이지 목록 정보를 제공한다. 간혹 검색 엔진이 미처 크롤링하지 못하고 누락되는 페이지가 생길 수 있다. 이 경우 sitemap.xml에 페이지 목록을 넣어둠으로 크롤링 누락을 막을 수 있다. 아래 링크를 통해 손쉽게 만들 수 있다.
Create your Google Sitemap Online - XML Sitemaps Generator
Installable version We offer a server-side script written in PHP language that you can install on your server and create sitemap for your website. The script doesn't have the limit on number of pages included in sitemap, although server resources required
www.xml-sitemaps.com
그 외
구조화된 데이터(Structured Data) 사용, 표준 URL (canonical URL) 지정, 페이지 로딩 속도 개선, 서버사이드 렌더링(SSR) 적용 등이 있다.
'웹_프론트엔드 > 로드맵 챌린지' 카테고리의 다른 글
CSS - 레이아웃 만들기 (0) | 2021.12.27 |
---|---|
CSS - 기초 배우기 (0) | 2021.12.23 |
HTML - 접근성 (0) | 2021.12.21 |
HTML - 컨벤션과 모범 사례 (Conventions and Best Practices) (0) | 2021.12.16 |
HTML - 폼과 유효성 검사 (0) | 2021.12.15 |