简述
Python3脚本刷视频播放量
前情提示
系统:centOS7,8阿里云一折优惠https://www.aliyun.com/minisite/goods?userCode=pqofinu5
宝塔8.x
一说
- 部分截图、链接等因过期、更换域名、MD语法等可能不显示,可联系反馈(备注好博文地址),谢谢❤
- 带有
#号、删除线、不操作、不执行
字样的为提示或者备份bash,实际不执行 - 如果无法下载、无法复制,请评论后留言即可。收到消息后会第一时间回复
有账号的朋友,可以点个赞或者评论两句哦,评论后会获得积分奖励~
安装依赖
pip3 install requests fake_useragent
编写脚本
import requests
from fake_useragent import UserAgent
import time
import random
# 从文件中读取URLs
with open('/www/server/panel/testurl.txt', 'r') as file:
urls = file.readlines()
# 创建一个UserAgent对象
user_agent = UserAgent()
# 循环访问每个URL
for url in urls:
url = url.strip() # 去除行末的换行符和空格
# 生成随机的User-Agent
headers = {'User-Agent': user_agent.random}
# 发送GET请求
response = requests.get(url, headers=headers)
# 打印响应状态码和内容
print(f"URL: {url}, Status Code: {response.status_code}")
# 如果需要,你还可以打印响应内容
# print(response.text)
# 模拟随机停留时间,防止被识别为爬虫
delay = random.uniform(2, 5) # 随机生成一个2到5秒的停留时间
print(f"Waiting for {delay:.2f} seconds...")
time.sleep(delay)
import requests
from fake_useragent import UserAgent
import time
import random
with open('/www/server/panel/testurl.txt', 'r') as file:
urls = file.readlines()
user_agent = UserAgent()
for url in urls:
url = url.strip()
headers = {'User-Agent': user_agent.random}
response = requests.get(url, headers=headers)
print(f"URL: {url}, Status Code: {response.status_code}")
delay = random.uniform(2, 5)
time.sleep(delay)
用这个
echo "import requests
from fake_useragent import UserAgent
import time
import random
with open('/www/server/panel/testurl.txt', 'r') as file:
urls = file.readlines()
user_agent = UserAgent()
for url in urls:
url = url.strip()
headers = {'User-Agent': user_agent.random}
response = requests.get(url, headers=headers)
print(f\"URL: {url}, Status Code: {response.status_code}\")
delay = random.uniform(2, 5)
time.sleep(delay)" > /www/server/panel/pgz_hjm_site.py
编写shell
#!/bin/bash
python3 /www/server/panel/pgz_hjm_site.py
可选
chmod +x /www/server/panel/pgz_hjm_site.py
效果
https://www.ixigua.com/7304550553940722214?logTag=dd19a370dc048aed5c33
https://www.ixigua.com/7306755691145298471
更多
可以用Selenium来使用更多浏览器操作,具体可以看另一篇
Selenium with Headless Browser:
使用Selenium结合无头浏览器(如Headless Chrome或Headless Firefox)可以模拟点击网页上的按钮。这种方式允许在没有可视化界面的情况下执行浏览器操作。
Scrapy:
一个基于Python的开源网络爬虫框架,用于快速高效地抓取网站数据。
Splash:
一个JavaScript渲染服务,可与Scrapy等框架一起使用,用于处理动态加载的网页内容。
Pyppeteer和Puppeteer:
Pyppeteer: 一个Python库,提供对Headless Chrome浏览器的控制。
Puppeteer: 一个Node.js库,也是用于控制Headless Chrome的。
Mechanical Soup:
一个与Requests和Beautiful Soup结合使用的库,简化了与网站交互的过程。
Playwright:
由Microsoft开发的跨浏览器自动化工具,支持多种编程语言,包括Python。
Apache JMeter:
用于性能测试、负载测试和功能测试的Java应用程序。
Appium:
用于自动化移动应用程序的开源工具,支持Android和iOS平台。