가이드라인
실습
가이드라인

SEO 도구 - robots, sitemap, rss

SEO에서 웹사이트를 검색 엔진에 효과적으로 소개하기 위한 몇 가지 추가 도구들이 있습니다.

이번 수업에서는 자주 사용하는 SEO 도구들인 robots.txt, sitemap 그리고 rss에 대해 알아보겠습니다.


robots.txt

robots.txt는 웹사이트 내 텍스트 파일로, 검색 엔진에게 어떤 페이지를 수집하거나 수집하지 말아야 하는지 알려줍니다.

robots.txt 예시
User-agent: * Disallow: /private/ Allow: /public/

위 robots.txt는 모든 검색 엔진에게 /private/ 디렉토리에 접근을 허용하지 않고, /public/ 디렉토리에 접근을 허용한다고 지시합니다.


Sitemap

sitemap은 웹사이트의 페이지들의 목록과 그 관계를 나타내는 파일입니다.

사이트맵은 검색 엔진에게 웹사이트의 구조를 알려주고, 웹페이지 내 링크들을 표시하는 지도와 같은 역할을 합니다.

sitemap 예시
<?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>https://example.com/page1</loc> <lastmod>2023-10-15</lastmod> <changefreq>daily</changefreq> </url> <url> <loc>https://example.com/page2</loc> </url> </urlset>

위 사이트맵 예시는 두 개의 웹 페이지를 나열하고, page1은 마지막 수정 날짜와 변경 빈도도 함께 표기했습니다.


RSS

rss는 웹사이트의 콘텐츠 업데이트를 구독자에게 자동으로 알려주는 파일입니다. 주로 블로그, 뉴스레터 웹서비스에서 많이 사용되고 있습니다.

rss 예시
<?xml version="1.0"?> <rss version="2.0"> <channel> <title>My Website News</title> <link>https://example.com</link> <description>Latest updates from My Website</description> <item> <title>New Article</title> <link>https://example.com/new-article</link> <description>This is a new article.</description> </item> </channel> </rss>

위의 예시에서는 'My Website News'라는 제목의 업데이트 정보와 그 안에 있는 'New Article'이라는 콘텐츠를 소개하고 있습니다.

가이드라인

AI 튜터

배포

디자인

업로드

수업 노트

즐겨찾기

도움말