> 技术文档 > 100行实现草榴种子爬虫

100行实现草榴种子爬虫

以下是一个 不到100行代码 实现的「草榴种子(BT种子磁力链接爬虫」的 Python 版本示例,仅用于学习与交流目的,请勿用于非法用途。

⚠️ 警告:草榴(t66y)是一个成人内容网站,请确保你年满 18 岁,并遵守当地法律。


✅ 功能说明

  • 登录(可选,某些版块需要)

  • 获取版块主题列表

  • 抓取帖子内容

  • 提取 BT 种子、磁力链接(通常在帖中)


🧠 技术要点

  • 使用 requests + BeautifulSoup 抓取网页

  • 自动处理 cookies(可支持登录)

  • 用正则表达式提取磁力链接 / ed2k / torrent 等信息


🚀 草榴爬虫示例(t66y_spider.py

import requestsfrom bs4 import BeautifulSoupimport reimport timeBASE_URL = \"https://t66y.com\"HEADERS = { \"User-Agent\": \"Mozilla/5.0\", \"Referer\": BASE_URL}# 可选登录功能def login(session, user, pwd): login_url = BASE_URL + \"/login.php\" data = {\"pwuser\": user, \"pwpwd\": pwd, \"jumpurl\": \"index.php\"} resp = session.post(login_url, data=data, headers=HEADERS) return \"退出\" in resp.text# 获取某个板块第一页帖子的链接def fetch_thread_links(session, forum_id=7, page=1): url = f\"{BASE_URL}/thread0806.php?fid={forum_id}&search=&page={page}\" resp = session.get(url, headers=HEADERS) resp.encoding = \"gb2312\" soup = BeautifulSoup(resp.text, \"html.parser\") links = soup.select(\"h3.t_subject a[href^=htm_data]\") return [BASE_URL + \"/\" + a[\"href\"] for a in links]# 提取帖子中的磁力/ed2k链接def fetch_magnet_links(session, thread_url): resp = session.get(thread_url, headers=HEADERS) resp.encoding = \"gb2312\" soup = BeautifulSoup(resp.text, \"html.parser\") text = soup.get_text() magnets = re.findall(r\"(magnet:\\?xt=urn:[a-z0-9:]+)\", text) ed2k = re.findall(r\"(ed2k://\\|file\\|.+?\\|/)\", text) return magnets + ed2k# 主函数:抓取一个板块第1页所有帖子的磁力链接def main(): session = requests.Session() # 可选:登录草榴(若不需要可注释) # if not login(session, \"your_username\", \"your_password\"): # print(\"登录失败\") # return thread_links = fetch_thread_links(session, forum_id=7, page=1) print(f\"共发现 {len(thread_links)} 个帖子\") for link in thread_links: print(f\"\\n[+] 正在解析: {link}\") links = fetch_magnet_links(session, link) for l in links: print(\" →\", l) time.sleep(1) # 礼貌等待,防止封IPif __name__ == \"__main__\": main()

📌 注意事项

  1. 草榴论坛使用 GB2312 编码,务必设置 resp.encoding = \'gb2312\'

  2. 某些版块(如成人 BT、原创 BT 等)需要注册并登录后才能访问

  3. 建议设置 headers(模拟浏览器访问),并加 sleep() 避免访问过快被 ban

  4. 如果遇到 403 或 需人机验证,可能被 Cloudflare 限制,建议使用代理或浏览器+selenium


✅ 运行效果(示意)

共发现 20 个帖子[+] 正在解析: https://t66y.com/htm_data/7/2407/123456.html → magnet:?xt=urn:btih:xxxxxxx... → ed2k://|file|some.video.mkv|123456|...

📦 可选增强

  • 下载种子(分析附件链接)

  • 使用 SQLite 保存磁力记录

  • 搭配 Aria2 实现自动下载

  • UI 前端管理系统


需要加强功能?加 GUI 下载器?想写浏览器插件或扩展版爬虫?我可以继续帮你实现。是否需要升级版本(如加验证码破解、附加分类过滤、自动下载)?

100行实现草榴种子爬虫https://www.52runoob.com/archives/3793