x1 工具准备
工欲善其事必先利其器,爬取语料的根基便是基于python。
我们基于python3进行开发,主要使用以下几个模块:requests、lxml、json。
简单介绍一个各模块的功能
01|requests
requests是一个Python第三方库,处理URL资源特别方便。它的官方文档上写着大大口号:HTTP for Humans(为人类使用HTTP而生)。相比python自带的urllib使用体验,笔者认为requests的使用体验比urllib高了一个数量级。
我们简单的比较一下:
urllib:
1import urllib2 2import urllib 3 4URL_GET = "https://api.douban.com/v2/event/list" 5#构建请求参数 6params = urllib.urlencode({'loc':'108288','day_type':'weekend','type':'exhibition'}) 7 8#发送请求 9response = urllib2.urlopen('?'.join([URL_GET,'%s'])%params) 10#Response Headers 11print(response.info()) 12#Response Code 13print(response.getcode()) 14#Response Body 15print(response.read()) 复制代码
requests:
1import requests 2 3URL_GET = "https://api.douban.com/v2/event/list" 4#构建请求参数 5params = {'loc':'108288','day_type':'weekend','type':'exhibition'} 6 7#发送请求 8response = requests.get(URL_GET,params=params) 9#Response Headers 10print(response.headers) 11#Response Code 12print(response.status_code) 13#Response Body 14print(response.text)复制代码
我们可以发现,这两种库还是有一些区别的:
1. 参数的构建:urllib需要对参数进行urlencode编码处理,比较麻烦;requests无需额外编码处理,十分简洁。
2. 请求发送:urllib需要额外对url参数进行构造,变为符合要求的形式;requests则简明很多,直接get对应链接与参数。
3. 连接方式:看一下返回数据的头信息的“connection”,使用urllib库时,"connection":"close",说明每次请求结束关掉socket通道,而使用requests库使用了urllib3,多次请求重复使用一个socket,"connection":"keep-alive",说明多次请求使用一个连接,消耗更少的资源
4. 编码方式:requests库的编码方式Accept-Encoding更全,在此不做举例
综上所诉,使用requests更为简明、易懂,极大的方便我们开发。
02|lxml
BeautifulSoup是一个库,而XPath是一种技术,python中最常用的XPath库是lxml。
当我们拿到requests返回的页面后,我们怎么拿到想要的数据呢?这个时候祭出lxml这强大的HTML/XML解析工具。python从不缺解析库,那么我们为什么要在众多库里选择lxml呢?我们选择另一款出名的HTML解析库BeautifulSoup来进行对比。
我们简单的比较一下:
BeautifulSoup:
1from bs4 import BeautifulSoup #导入库 2# 假设html是需要被解析的html 3 4#将html传入BeautifulSoup 的构造方法,得到一个文档的对象 5soup = BeautifulSoup(html,'html.parser',from_encoding='utf-8') 6#查找所有的h4标签 7links = soup.find_all("h4") 复制代码
lxml:
1from lxml import etree 2# 假设html是需要被解析的html 3 4#将html传入etree 的构造方法,得到一个文档的对象 5root = etree.HTML(html) 6#查找所有的h4标签 7links = root.xpath("//h4") 复制代码
我们可以发现,这两种库还是有一些区别的:
1. 解析html: BeautifulSoup的解析方式和JQ的写法类似,API非常人性化,支持css选择器;lxml的语法有一定的学习成本
2. 性能:BeautifulSoup是基于DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多;而lxml只会局部遍历,另外lxml是用c写的,而BeautifulSoup是用python写的,明显的性能上lxml>>BeautifulSoup。
综上所诉,使用BeautifulSoup更为简明、易用,lxml虽然有一定学习成本,但总体也很简明易懂,最重要的是它基于C编写,速度快很多,对于笔者这种强迫症,自然而然就选lxml啦。
03|json
python自带json库,对于基础的json的处理,自带库完全足够。但是如果你想更偷懒,可以使用第三方json库,常见的有demjson、simplejson。
这两种库,无论是import模块速度,还是编码、解码速度,都是simplejson更胜一筹,再加上兼容性 simplejson 更好。所以大家如果想使用方库,可以使用simplejson。
0x2 确定语料源
将武器准备好之后,接下来就需要确定爬取方向。
以电竞类语料为例,现在我们要爬电竞类相关语料。大家熟悉的电竞平台有企鹅电竞、企鹅电竞和企鹅电竞(斜眼),所以我们以企鹅电竞上直播的游戏作为数据源进行爬取。
我们登陆企鹅电竞官网,进入游戏列表页,可以发现页面上有很多游戏,通过人工去写这些游戏名收益明显不高,于是我们就开始我们爬虫的第一步:游戏列表爬取。
1import requests 2from lxml import etree 3 4# 更新游戏列表 5def _updateGameList(): 6 # 发送HTTP请求时的HEAD信息,用于伪装为浏览器 7 heads = { 8 'Connection': 'Keep-Alive', 9 'Accept': 'text/html, application/xhtml+xml, */*', 10 'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3', 11 'Accept-Encoding': 'gzip, deflate', 12 'User-Agent': 'Mozilla/6.1 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko' 13 } 14 # 需要爬取的游戏列表页 15 url = 'https://egame.qq.com/gamelist' 16 17 # 不压缩html,最大链接时间为10妙 18 res = requests.get(url, headers=heads, verify=False, timeout=10) 19 # 为防止出错,编码utf-8 20 res.encoding = 'utf-8' 21 # 将html构建为Xpath模式 22 root = etree.HTML(res.content) 23 # 使用Xpath语法,获取游戏名 24 gameList = root.xpath("//ul[@class='livelist-mod']//li//p//text()") 25 # 输出爬到的游戏名 26 print(gameList) 复制代码
当我们拿到这几十个游戏名后,下一步就是对这几十款游戏进行语料爬取,这时候问题就来了,我们要从哪个网站来爬这几十个游戏的攻略呢,taptap?多玩?17173?在对这几个网站进行分析后,发现这些网站仅有一些热门游戏的文章语料,一些冷门或者低热度的游戏,例如“灵魂筹码”、“奇迹:觉醒”、“死神来了”等,很难在这些网站上找到大量文章语料,如图所示:
我们可以发现,“ 奇迹:觉醒”、“灵魂筹码”的文章语料特别少,数量上不符合我们的要求。 那么有没有一个比较通用的资源站,它拥有着无比丰富的文章语料,可以满足我们的需求。
其实静下心来想想,这个资源站我们天天都有用到,那就是百度。我们在百度新闻搜索相关游戏,拿到搜索结果列表,这些列表的链接的网页内容几乎都与搜索结果强相关,这样我们数据源不够丰富的问题便轻松解决了。但是此时出现了一个新的问题,并且是一个比较难解决的问题——如何抓取到任意网页的文章内容?
因为不同的网站都有不同的页面结构,我们无法与预知将会爬到哪个网站的数据,并且我们也不可能针对每一个网站都去写一套爬虫,那样的工作量简直难以想象!但是我们也不能简单粗暴的将页面中的所有文字都爬下来,用那样的语料来进行训练无疑是噩梦!
经过与各个网站斗智斗勇、查询资料与思索之后,终于找到一条比较通用的方案,下面为大家讲一讲笔者的思路。
0x3 任意网站的文章语料爬取
01|提取方法
1)基于Dom树正文提取
2)基于网页分割找正文块
3)基于标记窗的正文提取
4)基于数据挖掘或机器学习
5)基于行块分布函数正文提取
02|提取原理
大家看到这几种是不是都有点疑惑了,它们到底是怎么提取的呢?让笔者慢慢道来。
1)基于Dom树的正文提取:
这一种方法主要是通过比较规范的HTML建立Dom树,然后地柜遍历Dom,比较并识别各种非正文信息,包括广告、链接和非重要节点信息,将非正文信息抽离之后,余下来的自然就是正文信息。
但是这种方法有两个问题
① 特别依赖于HTML的良好结构,如果我们爬取到一个不按W3c规范的编写的网页时,这种方法便不是很适用。
② 树的建立和遍历时间复杂度、空间复杂度都较高,树的遍历方法也因HTML标签会有不同的差异。
2) 基于网页分割找正文块 :
这一种方法是利用HTML标签中的分割线以及一些视觉信息(如文字颜色、字体大小、文字信息等)。
这种方法存在一个问题:
① 不同的网站HTML风格迥异,分割没有办法统一,无法保证通用性。
3) 基于标记窗的正文提取:
先科普一个概念——标记窗,我们将两个标签以及其内部包含的文本合在一起成为一个标记窗(比如 <h1>我是h1</h1> 中的“我是h1”就是标记窗内容),取出标记窗的文字。
这种方法先取文章标题、HTML中所有的标记窗,在对其进行分词。然后计算标题的序列与标记窗文本序列的词语距离L,如果L小于一个阈值,则认为此标记窗内的文本是正文。
这种方法虽然看上去挺好,但其实也是存在问题的:
① 需要对页面中的所有文本进行分词,效率不高。
② 词语距离的阈值难以确定,不同的文章拥有不同的阈值。
4)基于数据挖掘或机器学习
使用大数据进行训练,让机器提取主文本。
这种方法肯定是极好的,但是它需要先有html与正文数据,然后进行训练。我们在此不进行探讨。
5)基于行块分布函数正文提取
对于任意一个网页,它的正文和标签总是杂糅在一起。此方法的核心有亮点:① 正文区的密度;② 行块的长度;一个网页的正文区域肯定是文字信息分布最密集的区域之一,这个区域可能最大(评论信息长、正文较短),所以同时引进行块长度进行判断。
实现思路:
① 我们先将HTML去标签,只留所有正文,同时留下标签取出后的所有空白位置信息,我们称其为Ctext;
② 对每一个Ctext取周围k行(k<5),合起来称为Cblock;
③ 对Cblock去掉所有空白符,其文字总长度称为Clen;
④ 以Ctext为横坐标轴,以各行的Clen为纵轴,建立坐标系。
以这个网页为例: http://www.gov.cn/ldhd/2009-11/08/content_1459564.htm 该网页的正文区域为145行至182行。
由上图可知,正确的文本区域全都是分布函数图上含有最值且连续的一个区域,这个区域往往含有一个骤升点和一个骤降点。因此,网页正文抽取问题转化为了求行块分布函数上的骤升点和骤降点两个边界点,这两个边界点所含的区域包含了当前网页的行块长度最大值并且是连续的。
经过大量实验,证明此方法对于中文网页的正文提取有较高的准确度,此算法的优点在于,行块函数不依赖与HTML代码,与HTML标签无关,实现简单,准确率较高。
主要逻辑代码如下:
1# 假设content为已经拿到的html 2 3# Ctext取周围k行(k<5),定为3 4blocksWidth = 3 5# 每一个Cblock的长度 6Ctext_len = [] 7# Ctext 8lines = content.split('n') 9# 去空格 10for i in range(len(lines)): 11 if lines[i] == ' ' or lines[i] == 'n': 12 lines[i] = '' 13# 计算纵坐标,每一个Ctext的长度 14for i in range(0, len(lines) - blocksWidth): 15 wordsNum = 0 16 for j in range(i, i + blocksWidth): 17 lines[j] = lines[j].replace("\s", "") 18 wordsNum += len(lines[j]) 19 Ctext_len.append(wordsNum) 20# 开始标识 21start = -1 22# 结束标识 23end = -1 24# 是否开始标识 25boolstart = False 26# 是否结束标识 27boolend = False 28# 行块的长度阈值 29max_text_len = 88 30# 文章主内容 31main_text = [] 32# 没有分割出Ctext 33if len(Ctext_len) < 3: 34 return '没有正文' 35for i in range(len(Ctext_len) - 3): 36 # 如果高于这个阈值 37 if(Ctext_len[i] > max_text_len and (not boolstart)): 38 # Cblock下面3个都不为0,认为是正文 39 if (Ctext_len[i + 1] != 0 or Ctext_len[i + 2] != 0 or Ctext_len[i + 3] != 0): 40 boolstart = True 41 start = i 42 continue 43 if (boolstart): 44 # Cblock下面3个中有0,则结束 45 if (Ctext_len[i] == 0 or Ctext_len[i + 1] == 0): 46 end = i 47 boolend = True 48 tmp = [] 49 50 # 判断下面还有没有正文 51 if(boolend): 52 for ii in range(start, end + 1): 53 if(len(lines[ii]) < 5): 54 continue 55 tmp.append(lines[ii] + "n") 56 str = "".join(list(tmp)) 57 # 去掉版权信息 58 if ("Copyright" in str or "版权所有" in str): 59 continue 60 main_text.append(str) 61 boolstart = boolend = False 62# 返回主内容 63result = "".join(list(main_text)) 复制代码
0x4 结语
至此我们就可以获取任意内容的文章语料了,但这仅仅是开始,获取到了这些语料后我们还需要在一次进行清洗、分词、词性标注等,才能获得真正可以使用的语料。
浏览器根据访问的域名找到其IP地址。DNS查找过程如下:
浏览器缓存:首先搜索浏览器自身的DNS缓存(缓存的时间比较短,大概只有1分钟,且只能容纳1000条缓存),看自身的缓存中是否是有域名对应的条目,而且没有过期,如果有且没有过期则解析到此结束。
系统缓存:如果浏览器自身的缓存里面没有找到对应的条目,那么浏览器会搜索操作系统自身的DNS缓存,如果找到且没有过期则停止搜索解析到此结束。
路由器缓存:如果系统缓存也没有找到,则会向路由器发送查询请求。
ISP(互联网服务提供商) DNS缓存:如果在路由缓存也没找到,最后要查的就是ISP缓存DNS的服务器。
TCP的3次握手。
一个HTTP请求报文由请求行(request line)、请求头部(headers)、空行(blank line)和请求数据(request body)4个部分组成。
图1 HTTP请求格式
1.3.1 请求行
请求行分为三个部分:请求方法、请求地址URL和HTTP协议版本,它们之间用空格分割。例如,GET /index.html HTTP/1.1。
1.请求方法
HTTP/1.1 定义的请求方法有8种:GET(完整请求一个资源)、POST(提交表单)、PUT(上传文件)、DELETE(删除)、PATCH、HEAD(仅请求响应首部)、OPTIONS(返回请求的资源所支持的方法)、TRACE(追求一个资源请求中间所经过的代理)。最常的两种GET和POST,如果是RESTful接口的话一般会用到GET、POST、DELETE、PUT。
(1)GET
当客户端要从服务器中读取文档时,当点击网页上的链接或者通过在浏览器的地址栏输入网址来浏览网页的,使用的都是GET方式。GET方法要求服务器将URL定位的资源放在响应报文的数据部分,会送给客户端。
使用GET方法时,请求参数和对应的值附加在URL后面,利用一个问号‘?’代表URL的结尾与请求参数的开始,传递参数长度受限制。例如,/index.jsp?id=100&op=bind。通过GET方式传递的数据直接放在地址中,所以GET方式的请求一般不包含“请求内容”部分,请求数据以地址的形式表现在请求行。
地址中‘?’之后的部分就是通过GET发送的请求数据,各个数据之间用‘&’符号隔开。显然这种方式不适合传送私密数据。另外,由于不同的浏览器对地址的字符限制也有所不同,一般最多只能识别1024个字符,所以如果需要传送大量数据的时候,也不适合使用GET方式。如果数据是英文字母/数字,原样发送;如果是空格,转换为+;如果是中文/其他字符,则直接把字符串用BASE64加密,得出:%E4%BD%A0%E5%A5%BD,其中%XX中的XX为该符号以16进制表示的ASCII。
(2)POST
允许客户端给服务器提供信息较多。POST方法将请求参数封装在HTTP请求数据中,以名称/值的形式出现,可以传输大量数据,这样POST方式对传送的数据大小没有限制,而且也不会显示在URL中。POST方式请求行中不包含数据字符串,这些数据保存在“请求内容”部分,各数据之间也是使用‘&’符号隔开。POST方式大多用于页面的表单中。因为POST也能完成GET的功能,因此多数人在设计表单的时候一律都使用POST方式,其实这是一个误区。GET方式也有自己的特点和优势,我们应该根据不同的情况来选择是使用GET还是使用POST。
图2 HTTP请求方法
2.URL
URL:统一资源定位符,是一种资源位置的抽象唯一识别方法。
组成:<协议>://<主机>:<端口>/<路径>
端口和路径有事可以省略(HTTP默认端口号是80)
3.协议版本
协议版本的格式为:HTTP/主版本号.次版本号,常用的有HTTP/1.0和HTTP/1.1
1.3.2 请求头部
请求头部为请求报文添加了一些附加信息,由“名/值”对组成,每行一对,名和值之间使用冒号分隔。
请求头部的最后会有一个空行,表示请求头部结束,接下来为请求数据。
1.3.3 请求数据
请求数据不在GET方法中使用,而在POST方法中使用。POST方法适用于需要客户填写表单的场合。与请求数据相关的最长使用的请求头部是Cntent-Type和Content-Length。下面是一个POST方法的请求报文:
POST /index.php HTTP/1.1 请求行
Host: localhost
User-Agent: Mozilla/5.0 (Windows NT 5.1; rv:10.0.2) Gecko/20100101 Firefox/10.0.2请求头
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,/;q=0.8
Accept-Language: zh-cn,zh;q=0.5
Accept-Encoding: gzip, deflate
Connection: keep-alive
Referer: http://localhost/
Content-Length:25
Content-Type:application/x-www-form-urlencoded
空行
username=aa&password=1234 请求数据
HTTP响应报文由状态行(status line)、相应头部(headers)、空行(blank line)和响应数据(response body)4个部分组成。
1.4.1 状态行
状态行由3部分组成,分别为:协议版本、状态码、状态码扫描。其中协议版本与请求报文一致,状态码描述是对状态码的简单描述。
1.4.2 响应头部
1.4.3 响应数据
用于存放需要返回给客户端的数据信息。
HTTP/1.1 200 OK 状态行
Date: Sun, 17 Mar 2013 08:12:54 GMT 响应头部
Server: Apache/2.2.8 (Win32) PHP/5.2.5
X-Powered-By: PHP/5.2.5
Set-Cookie: PHPSESSID=c0huq7pdkmm5gg6osoe3mgjmm3; path=/
Expires: Thu, 19 Nov 1981 08:52:00 GMT
Cache-Control: no-store, no-cache, must-revalidate, post-check=0, pre-check=0
Pragma: no-cache
Content-Length: 4393
Keep-Alive: timeout=5, max=100
Connection: Keep-Alive
Content-Type: text/html; charset=utf-8
空行
<html> 响应数据
<head>
<title>HTTP响应示例<title>
</head>
<body>
Hello HTTP!
</body>
</html>
浏览器拿到HTML文件后,开始解析HTML代码,遇到静态资源时,就向服务器端去请求下载。
浏览器利用自己内部的工作机制,把请求到的静态资源和HTML代码进行渲染,呈现给用户。
来源:CSDN
我们这个Web服务器有了一个基本的门面以后,我们是时候来用它做点实际的事情了。还记得我们最早提到HTTP协议的用途是什么吗?它叫超文本传输协议啊,所以我们必须考虑让我们的服务器能够接收到客户端传来的数据。因为我们目前完成了大部分的工作,所以对数据传输这个问题我们这里选择以最简单的GET和POST为例来实现,这样我们今天的重点就落实在Get和Post的实现这个问题上来。而从原理上来讲,无论Get方式请求还是Post方式请求,我们都可以在请求报文中获得其请求参数,不同的是前者出现在请求行中,而后者出现在消息体中。例如我们传递的两个参数num1和num2对应的数值分别是12和24,那么在具体的请求报文中我们都能找到类似“num1=12&num2=24”这样的字符结构,所以只要针对这个字符结构进行解析,就可以获得客户端传递给服务器的参数啦。
首先我们来实现Get请求,Get是HTTP协议中默认的请求类型,我们平时访问网页、请求资源实际上都是通过Get方式实现的。Get方式请求需要通过类似“?id=001&option=10”这样的形式附加在URL上,因此Get方式对浏览器来说是透明的,即用户可以通过浏览器地址栏知道,这个过程中传递了哪些参数以及这些参数的值分别是什么。而由于浏览器的限制,我们通过这种方式请求的时候能够传递的参数数目和长度都是有限的,而且当参数中存在中文数值的时候还需要对其进行编码。Get方式请求相对简单,我们下面来看看它的请求报文:
GET /?num1=23&num2=12 HTTP/1.1 Accept: text/html, application/xhtml+xml, image/jxr, */* Accept-Language: zh-Hans-CN,zh-Hans;q=0.5 User-Agent: Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586 Accept-Encoding: gzip, deflate Host: localhost:4040 Connection: Keep-Alive Cookie: _ga=GA1.1.1181222800.1463541781 1 2 3 4 5 6 7 8
此时我们可以注意到在请求报文第一行,即请求行中出现了“/?num1=23&num2=12”这样的字样,这就是客户端传递给服务器的参数,我们很容易想到只需要将这个字段串中的“键”和“值”都解析出来,服务器就可以对这些数据进行处理然后返回给客户端了。所以下面我们通过这样的方式来实现,我们为HtttpRequest类增加了一个Parms属性,它是一个键和值均为字符串类型的字典,我们使用这个字典来存储和管理客户端传递来的参数。
//获取请求参数 if(this.Method == "GET" && this.URL.Contains('?')) this.Params = GetRequestParams(lines[0].Split(' ')[1].Split('?')[1]); 1 2 3
显然我们首先需要判断请求类型是否为GET以及请求中是否带有参数,其方法是判断请求地址中是否含有“?”字符。这里的lines是指将报文信息按行分割以后的数组,显然请求地址在第一行,所以我们根据“?”分割该行数据以后就可以得到“num1=23&num2=12”这样的结果,这里我们使用一个方法GetRequestParms来返回参数字典,这样作做是为了复用方法,因为在处理Post请求的时候我们会继续使用这个方法。该方法定义如下:
/// <summary> /// 从内容中解析请求参数并返回一个字典 /// </summary> /// <param name="content">使用&连接的参数字符串</param> /// <returns>如果存在参数则返回参数否则返回null</returns> protected Dictionary<string, string> GetRequestParams(string content) { //防御编程 if(string.IsNullOrEmpty(content)) return null; //按照&对字符进行分割 string[] reval = content.Split('&'); if(reval.Length <= 0) return null; //将结果添加至字典 Dictionary<string, string> dict = new Dictionary<string, string>(); foreach(string val in reval) { string[] kv = val.Split('='); if(kv.Length <= 1) dict.Add(kv[0], ""); dict.Add(kv[0],kv[1]); } //返回字典 return dict; } 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
Post请求相对Get请求比较安全,因为它克服了Get请求参数长度的限制问题,而且由于它的参数是存放在消息体中的,所以在传递参数的时候对用户而言是不可见的,我们平时接触到的网站登录都是这种类型,而复杂点的网站会通过验证码、Cookie等形式来避免爬虫程序模拟登录,在Web开发中Post请求可以由一个表单发起,可以由爬虫程序如HttpWebRequest、WebClient等发起,下面我们重点来分析它的请求报文:
POST / HTTP/1.1 Accept: text/html, application/xhtml+xml, image/jxr, */* Accept-Language: zh-Hans-CN,zh-Hans;q=0.5 User-Agent: Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586 Accept-Encoding: gzip, deflate Host: localhost:4040 Connection: Keep-Alive Cookie: _ga=GA1.1.1181222800.1463541781 num1=23&num2=12 1 2 3 4 5 6 7 8 9 10
我们可以注意到此时请求行的请求方法变成了POST,而在报文结尾增加了一行内容,我们称其为“消息体”,这是一个可选的内容,请注意它前面有一个空行。所以,当我们处理一个Posst请求的时候,通过最后一行就可以解析出客户端传递过来的参数,和Get请求相同,我们这里继续使用GetRequestParams来完成解析。
if(this.Method == "POST") this.Params = GetRequestParams(lines[lines.Length-1]); 1 2
现在我们来完成一个简单地实例,服务器自然由我们这里设计的这个服务器来完成咯,而客户端则由Unity来完成因为Unity有简单的WWW可以使用。首先来编写服务端,这个继承HttpServer就好了,我们主要来写这里的方法:
using System; using System.Collections.Generic; using System.Linq; using System.Text; using System.Threading.Tasks; using HttpServerLib; using System.IO; namespace HttpServer { public class ExampleServer : HttpServerLib.HttpServer { /// <summary> /// 构造函数 /// </summary> /// <param name="ipAddress">IP地址</param> /// <param name="port">端口号</param> public ExampleServer(string ipAddress, int port) : base(ipAddress, port) { } public override void OnPost(HttpRequest request) { //获取客户端传递的参数 int num1 = int.Parse(request.Params["num1"]); int num2 = int.Parse(request.Params["num2"]); //设置返回信息 string content = string.Format("这是通过Post方式返回的数据:num1={0},num2={1}",num1,num2); //构造响应报文 HttpResponse response = new HttpResponse(content, Encoding.UTF8); response.StatusCode = "200"; response.Content_Type = "text/html; charset=UTF-8"; response.Server = "ExampleServer"; //发送响应 ProcessResponse(request.Handler, response); } public override void OnGet(HttpRequest request) { //获取客户端传递的参数 int num1 = int.Parse(request.Params["num1"]); int num2 = int.Parse(request.Params["num2"]); //设置返回信息 string content = string.Format("这是通过Get方式返回的数据:num1={0},num2={1}",num1,num2); //构造响应报文 HttpResponse response = new HttpResponse(content, Encoding.UTF8); response.StatusCode = "200"; response.Content_Type = "text/html; charset=UTF-8"; response.Server = "ExampleServer"; //发送响应 ProcessResponse(request.Handler, response); } } } 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62
因为这里需要对Get和Post进行响应,所以我们这里对OnGet和OnPost两个方法进行了重写,这里的处理方式非常简单,按照一定格式返回数据即可。下面我们来说说Unity作为客户端这边要做的工作。WWW是Unity3D中提供的一个简单的HTTP协议的封装类,它和.NET平台下的WebClient、HttpWebRequest/HttpWebResponse类似,都可以处理常见的HTTP请求如Get和Post这两种请求方式。
WWW的优势主要是简单易用和支持协程,尤其是Unity3D中的协程(Coroutine)这个特性,如果能够得到良好的使用,常常能够起到事倍功半的效果。因为WWW强调的是以HTTP短链接为主的易用性,所以相应地在超时、Cookie等HTTP头部字段支持的完整性上无法和WebClient、HttpWebRequest/HttpWebRespons相提并论,当我们需要更复杂的HTTP协议支持的时候,选择在WebClient、HttpWebRequest/HttpWebResponse上进行深度定制将会是一个不错的选择。我们这里需要的是发起一个简单的HTTP请求,所以使用WWW完全可以满足我们的要求,首先我们来看在Unity3D中如何发起一个Get请求,这里给出一个简单的代码示例:
//采用GET方式请求数据 IEnumerator Get() { WWW www = new WWW ("http://127.0.0.1:4040/?num1=12&num2=23"); yield return www; Debug.Log(www.text); } 1 2 3 4 5 6 7
现在我们是需要使用StartCoroutine调用这个方法就可以啦!同样地,对于Post请求,我们这里采用一个WWWForm来封装参数,而在网页开发中我们通常都是借助表单来向服务器传递参数的,这里给出同样简单的代码示例:
//采用POST方式请求数据 IEnumerator Post() { WWWForm form = new WWWForm (); form.AddField ("num1", 12); form.AddField ("num2", 23); WWW www = new WWW ("http://127.0.0.1:4040/", form); yield return www; Debug.Log (www.text); } 1 2 3 4 5 6 7 8 9 10
而运行这个实例,我们可以得到下面的结果:
都是谁告诉你做服务器开发一定要用Java的啊,现在我们可以写出自己的服务器了,本篇结束
*请认真填写需求信息,我们会在24小时内与您取得联系。