Robots.txt 생성기
사용자 에이전트 규칙, 경로 제어, AI 봇 차단 및 URL 테스트를 통해 시각적으로 robots.txt 파일을 생성합니다.
User-agent: * Disallow:
Robots.txt Generator 소개
robots.txt 파일은 웹 크롤러에게 웹사이트의 어떤 페이지나 섹션에 접근할 수 있거나 없는지를 알려줍니다. User-agent, Disallow, Allow, Crawl-delay 및 Sitemap 지시문이 있는 로봇 배제 프로토콜을 사용합니다. 올바르게 구성된 robots.txt 파일은 크롤링 예산 관리, 비공개 페이지 보호 및 AI 데이터 수집 제어에 도움을 줍니다.
사용 방법
a quick template or build custom rules. Add user-agent rules (specific bots or all bots with *). For each bot, add Disallow paths to block and Allow paths to permit. Add your sitemap URL. Use the URL tester to verify a specific URL would be allowed or blocked. Copy or download the generated robots.txt and upload it to your website root.을(를) 선택하세요
주요 활용 사례
- 콘텐츠를 학습하는 AI 웹 스크래퍼(GPTBot, CCBot) 차단
- 관리자, 로그인 및 비공개 페이지를 검색 엔진으로부터 보호
- 중복/얇은 콘텐츠 페이지를 차단하여 크롤링 예산 구성
- WordPress, 전자상거래 또는 사용자 정의 사이트용 robots.txt 설정
- 특정 URL에 대한 기존 robots.txt 규칙 테스트 및 검증