返回

Python爬虫-第三章-1-用requests 插件爬取数据

发布时间:2023-01-08 04:30:21 264
# json# 信息

Python-requests 插件

# Demo Describe:requests 插件的使用

import requests
from fake_useragent import UserAgent

ua = UserAgent()
user_agent = ua.random
print(user_agent)

'''
本章内容:
使用 requests 插件 爬取信息
'''

# start--------1,在智联上爬取关键字爬取----------------------
#
par = input('输入检索内容')
url1 = f'https://sou.zhaopin.com/?kw={par}'
userAgent = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.127 Safari/537.36'
}
resp = requests.get(url1, headers=userAgent)
print(resp.json())
resp.close()

# end--------1,在智联上爬取关键字爬取----------------------

# start--------2,在百度翻译上爬取翻译结果----------------------

# url2 = 'https://fanyi.baidu.com/sug'
# # s = input('输入翻译文字:')
# data = {
# 'kw':s
# }

# resp = requests.post(url2,data=data)
# print(resp.json())
# resp.close()

# end--------2,在百度翻译上爬取翻译结果----------------------

# start--------3,在豆瓣上爬取结果----------------------

# url3 = 'https://movie.douban.com/j/new_search_subjects'
# s = input('输入检索文字:')
# param = {
# 'sort': 'U',
# 'range': '0,10',
# 'tags': s,
# 'start': 0
# }
# headers = {
# 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.127 Safari/537.36',
# 'Keep-Alive': 'False'
# }
#
# resp = requests.get(url3,params=param,headers=headers)
# print(resp.json())
# resp.close()

# end--------2,在豆瓣上爬取结果----------------------


特别声明:以上内容(图片及文字)均为互联网收集或者用户上传发布,本站仅提供信息存储服务!如有侵权或有涉及法律问题请联系我们。
举报
评论区(0)
按点赞数排序
用户头像
精选文章
thumb 中国研究员首次曝光美国国安局顶级后门—“方程式组织”
thumb 俄乌线上战争,网络攻击弥漫着数字硝烟
thumb 从网络安全角度了解俄罗斯入侵乌克兰的相关事件时间线
下一篇
day2_切片 2023-01-08 04:04:28