简介
主要是尝试简单的使用pyhton的爬虫功能,于是使用有道进行尝试,并没有进行深入的诸如相关api的调用。
以下是需要的post数据
代码
以下是相关部分的代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
|
import urllib.request import urllib.parse import json content = input ( '需要翻译的内容:' ) #翻译内容 url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&sessionfrom=http://fanyi.youdao.com/' #有道翻译查询入口 data = { #表单数据 'i' : content, 'from' : 'auto' , 'to' : 'auto' , 'smartresult' : 'dict' , 'client' : 'fanyideskweb' , 'doctype' : 'json' , 'version' : '2.1' , 'keyfrom' : 'fanyi.web' , 'action' : 'fy_by_clickbuttion' , 'typoresult' : 'false' } data = urllib.parse.urlencode(data).encode( 'utf-8' ) #对post数据进行编码 response = urllib.request.urlopen(url,data) #发出post请求并获取http响应 html = response.read().decode( 'utf-8' ) #获取网页内容,并进行解码解码 target = json.loads(html) #json解析 print ( "\n翻译结果:%s" % target[ 'translateresult' ][ 0 ][ 0 ][ 'tgt' ]) #输出翻译结果 |
重要函数
urllib.request.urlopen()——发送post数据,同时返回响应
urllib.parse.urlencode()——对post数据进行编码转换
json.loads()——进行json解析
以上所述是小编给大家介绍的python实现有道在线翻译的方法详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对服务器之家网站的支持!
原文链接:https://blog.csdn.net/kongfu_cat/article/details/79682030