了方便例子讲解,现有数组和字面量对象如下
var demoArr = ['Javascript', 'Gulp', 'CSS3', 'Grunt', 'jQuery', 'angular'];
var demoObj = {
aaa: 'Javascript',
bbb: 'Gulp',
ccc: 'CSS3',
ddd: 'Grunt',
eee: 'jQuery',
fff: 'angular'
};
可以直接看示例,用得太多了,很简单
(function () {
for (var i = 0, len = demoArr.length; i < len; i++) {
if (i == 2) {
// return; // 函数执行被终止
// break; // 循环被终止
continue; // 循环被跳过
};
console.log('demo1Arr[' + i + ']:' + demo1Arr[i]);
}
})();
关于for循环,有以下几点需要注意
var i = 0, len = demo1Arr.length;
for(; i<len; i++) {};
for(var item in arr|obj){} 可以用于遍历数组和对象
(function () {
for (var i in demoArr) {
if (i == 2) {
return; // 函数执行被终止
// break; // 循环被终止
// continue; // 循环被跳过
};
console.log('demoArr[' + i + ']:' + demoArr[i]);
}
console.log('-------------');
})();
for in 本质上遍历的是对象,之所以能遍历数组,是因为数组也是一个对象。
var arr = ['react', 'vue', 'angular'];
// 等价于
var arr = {
0: 'react',
1: 'vue',
2: 'angular'
}
关于for in,有以下几点需要注意:
function res() {
var demoArr = ['Javascript', 'Gulp', 'CSS3', 'Grunt', 'jQuery', 'angular'];
for (var item in demoArr) {
if (item == 2) {
return;
};
console.log(item, demoArr[item]);
}
console.log('desc', 'function res'); //不会执行
}
因为 for in 的目的是为了遍历对象,因此在遍历时,会同时搜索该对象构造函数上的属性以及原型上的属性,因此 for in 循环相对来说消耗会更大一点。因此,如果有其他更好的选择,则尽量避免考虑使用 for in 循环来遍历数据。
demoArr.forEach(function(arg) {})
参数arg表示数组每一项的元素,实例如下
demoArr.forEach(function (val, index) {
if (e == 'CSS3') {
return; // 循环被跳过
// break; // 报错
// continue;// 报错
};
console.log(val, index);
})
具体有以下需要注意的地方
ES5中新增的几个数组方法,forEach, map, filter, reduce等,可以理解为依次对数组的每一个子项进行一个处理(回调函数中的操作),他们是对简单循环的更高一层封装,因此与单纯的循环在本质上有一些不同,所以才会导致 return, continue, break 的不同。
最重要的一点,可以添加第二参数,为一个数组,而且回调函数中的this会指向这个数组。而如果没有第二参数,则this会指向window。
var newArr = [];
demoArr.forEach(function(val, index) {
this.push(val); // 这里的this指向newArr
}, newArr)
虽然在原生中 forEach 循环的局限性很多,但是了解他的必要性在于,很多第三方库会扩展他的方法,使其能够应用在很多地方,比如 angular 的工具方法中,也有 forEach 方法,其使用与原生的基本没有差别,只是没有了局限性,可以在IE下使用,也可以遍历对象
var result = [];
angular.forEach(demoArr, function(val, index) {
this.push(val);
}, result);
函数具体的实现方式如下,不过有一点值得注意的是,当使用 continue时,如果你将 i++ 放在了后面,那么 i++ 的值将一直不会改变,最后陷入死循环。因此使用do/while一定要小心谨慎一点。
// 直接使用while
(function () {
var i = 0,
len = demoArr.length;
while (i < len) {
if (i == 2) {
// return; // 函数执行被终止
// break; // 循环被终止
// continue; // 循环将被跳过,因为后边的代码无法执行,i的值没有改变,因此循环会一直卡在这里,慎用!!
};
console.log('demoArr[' + i + ']:' + demoArr[i]);
i++;
}
console.log('------------------------');
})();
// do while
(function () {
var i = 0,
len = demo3Arr.length;
do {
if (i == 2) {
break; // 循环被终止
};
console.log('demo2Arr[' + i + ']:' + demo3Arr[i]);
i++;
} while (i < len);
})();
不建议使用do/while的方式来遍历数组
$.each(demoArr|demoObj, function(e, ele))
可以用来遍历数组和对象,其中e表示索引值或者key值,ele表示value值
$.each(demoArr, function(e, ele) {
console.log(e, ele);
})
输出为
0 "Javascript"
1 "Gulp"
2 "CSS3"
3 "Grunt"
4 "jQuery"
5 "angular"
这里有很多需要注意的地方
console.log(this);
//String {0: "C", 1: "S", 2: "S", 3: "3", length: 4, [[PrimitiveValue]]: "CSS3"}
console.log(this == ele);
// true
$.each(this, function(e, ele) {
console.log(e, ele);
})
// 0 c
// 1 s
// 2 s
// 4 3
为什么 length 和 [[PrimitiveValue]]没有遍历出来?突然灵光一动,在《javascript高级编程》中找到了答案,大概意思就是javascript的内部属性中,将对象数据属性中的 Enumerable 设置为了false
// 查看length的内部属性
console.log(Object.getOwnPropertyDescriptor(this, 'length'));
// Object {value: 4, writable: false, enumerable: false, configurable: false}
(this)` 与this有所不同,不过遍历结果却是一样,你可以在测试代码中打印出来看看
专门用来遍历DOMList
$('.list li').each(function (i, ele) {
console.log(i, ele);
// console.log(this == ele); // true
$(this).html(i);
if ($(this).attr('data-item') == 'do') {
$(this).html('data-item: do');
};
})
因为domList并非数组,而是一个对象,只是因为其key值为0,1,2... 而感觉与数组类似,但是直接遍历的结果如下
var domList = document.getElementsByClassName('its');
for(var item in domList) {
console.log(item, ':' + domList[item]);
}
// 0: <li></li>
// 1: <li></li>
// ...
// length: 5
// item: function item() {}
// namedItem: function namedItem() {}
因此我们在使用for in 遍历domList时,需要将domList转换为数组
var res = [].slice.call(domList);
for(var item in res) {}
类似这样的对象还有函数的属性 arguments 对象,当然字符串也是可以遍历的,但是因为字符串其他属性的 enumerable 被设置成了false,因此遍历出来的结果跟数组是一样的,也就不用担心这个问题了.
for of 用于遍历可迭代对象「Iterator」。在 JS 中,数组 Array,字符串 String, Map,Set 等,都是可迭代对象。
对象中包含 Symbol.iterator 属性的,都被称为可迭代对象。
var arr = [1, 2, 3];
arr[Symbol.iterator]
// ƒ values() { [native code] }
简单案例。
const iterable = ['react', 'vue', 'angular'];
for (const value of iterable) {
console.log(value);
}
如果你发现有些人写函数这样搞,不要惊慌,也不要觉得他高大上鸟不起
+function(ROOT, Struct, undefined) {
...
}(window, function() {
function Person() {}
})
()(), !function() {}() +function() {}() 三种函数自执行的方式
学习是一个艰苦的过程,当然如果能把技术学成,最后也一定可以获得高薪工作。掌握一个好的学习方法,跟对一个学习的人非常重要。今后要是大家有啥问题,可以随时来问我,能帮助别人学习解决问题,对于自己也是一个提升的过程。自己整理了一份2020最全面前端学习资料,从最基础的HTML+CSS+JS到HTML5的项目实战的学习资料都有整理web前端学习干货,各种框架都有整理,送给每一位前端小伙伴,想要获取的可以关注我的头条号并在后台私信我:前端,即可免费获取
今年国庆假期终于可以憋在家里了不用出门了,不用出去看后脑了,真的是一种享受。这么好的光阴怎么浪费,睡觉、吃饭、打豆豆这怎么可能(耍多了也烦),完全不符合我们程序员的作风,赶紧起来把文章写完。
这篇文章比较基础,在国庆期间的业余时间写的,这几天又完善了下,力求把更多的前端所涉及到的关于文件上传的各种场景和应用都涵盖了,若有疏漏和问题还请留言斧正和补充。
以下是本文所涉及到的知识点,break or continue ?
原理很简单,就是根据 http 协议的规范和定义,完成请求消息体的封装和消息体的解析,然后将二进制内容保存到文件。
我们都知道如果要上传一个文件,需要把 form 标签的enctype设置为multipart/form-data,同时method必须为post方法。
那么multipart/form-data表示什么呢?
multipart互联网上的混合资源,就是资源由多种元素组成,form-data表示可以使用HTML Forms 和 POST 方法上传文件,具体的定义可以参考RFC 7578。
multipart/form-data 结构
看下 http 请求的消息体
Content-Type: multipart/form-data; boundary=----WebKitFormBoundaryDCntfiXcSkPhS4PN 表示本次请求要上传文件,其中boundary表示分隔符,如果要上传多个表单项,就要使用boundary分割,每个表单项由———XXX开始,以———XXX结尾。
每一个表单项又由Content-Type和Content-Disposition组成。
Content-Disposition: form-data 为固定值,表示一个表单元素,name 表示表单元素的 名称,回车换行后面就是name的值,如果是上传文件就是文件的二进制内容。
Content-Type:表示当前的内容的 MIME 类型,是图片还是文本还是二进制数据。
解析
客户端发送请求到服务器后,服务器会收到请求的消息体,然后对消息体进行解析,解析出哪是普通表单哪些是附件。
可能大家马上能想到通过正则或者字符串处理分割出内容,不过这样是行不通的,二进制buffer转化为string,对字符串进行截取后,其索引和字符串是不一致的,所以结果就不会正确,除非上传的就是字符串。
不过一般情况下不需要自行解析,目前已经有很成熟的三方库可以使用。
至于如何解析,这个也会占用很大篇幅,后面的文章在详细说。
使用 form 表单上传文件
在 ie时代,如果实现一个无刷新的文件上传那可是费老劲了,大部分都是用 iframe 来实现局部刷新或者使用 flash 插件来搞定,在那个时代 ie 就是最好用的浏览器(别无选择)。
DEMO
这种方式上传文件,不需要 js ,而且没有兼容问题,所有浏览器都支持,就是体验很差,导致页面刷新,页面其他数据丢失。
HTML
<form method="post" action="http://localhost:8100" enctype="multipart/form-data">
选择文件:
<input type="file" name="f1"/> input 必须设置 name 属性,否则数据无法发送<br/>
<br/>
标题:<input type="text" name="title"/><br/><br/><br/>
<button type="submit" id="btn-0">上 传</button>
</form>
复制代码
服务端文件的保存基于现有的库koa-body结合 koa2实现服务端文件的保存和数据的返回。
在项目开发中,文件上传本身和业务无关,代码基本上都可通用。
在这里我们使用koa-body库来实现解析和文件的保存。
koa-body 会自动保存文件到系统临时目录下,也可以指定保存的文件路径。
然后在后续中间件内得到已保存的文件的信息,再做二次处理。
NODE
/**
* 服务入口
*/
var http = require('http');
var koaStatic = require('koa-static');
var path = require('path');
var koaBody = require('koa-body');//文件保存库
var fs = require('fs');
var Koa = require('koa2');
var app = new Koa();
var port = process.env.PORT || '8100';
var uploadHost= `http://localhost:${port}/uploads/`;
app.use(koaBody({
formidable: {
//设置文件的默认保存目录,不设置则保存在系统临时目录下 os
uploadDir: path.resolve(__dirname, '../static/uploads')
},
multipart: true // 开启文件上传,默认是关闭
}));
//开启静态文件访问
app.use(koaStatic(
path.resolve(__dirname, '../static')
));
//文件二次处理,修改名称
app.use((ctx) => {
var file = ctx.request.files.f1;//得道文件对象
var path = file.path;
var fname = file.name;//原文件名称
var nextPath = path+fname;
if(file.size>0 && path){
//得到扩展名
var extArr = fname.split('.');
var ext = extArr[extArr.length-1];
var nextPath = path+'.'+ext;
//重命名文件
fs.renameSync(path, nextPath);
}
//以 json 形式输出上传文件地址
ctx.body = `{
"fileUrl":"${uploadHost}${nextPath.slice(nextPath.lastIndexOf('/')+1)}"
}`;
});
/**
* http server
*/
var server = http.createServer(app.callback());
server.listen(port);
console.log('demo1 server start ...... ');
复制代码
CODE
https://github.com/Bigerfe/fe-learn-code/
x1 工具准备
工欲善其事必先利其器,爬取语料的根基便是基于python。
我们基于python3进行开发,主要使用以下几个模块:requests、lxml、json。
简单介绍一个各模块的功能
01|requests
requests是一个Python第三方库,处理URL资源特别方便。它的官方文档上写着大大口号:HTTP for Humans(为人类使用HTTP而生)。相比python自带的urllib使用体验,笔者认为requests的使用体验比urllib高了一个数量级。
我们简单的比较一下:
urllib:
1import urllib2 2import urllib 3 4URL_GET = "https://api.douban.com/v2/event/list" 5#构建请求参数 6params = urllib.urlencode({'loc':'108288','day_type':'weekend','type':'exhibition'}) 7 8#发送请求 9response = urllib2.urlopen('?'.join([URL_GET,'%s'])%params) 10#Response Headers 11print(response.info()) 12#Response Code 13print(response.getcode()) 14#Response Body 15print(response.read()) 复制代码
requests:
1import requests 2 3URL_GET = "https://api.douban.com/v2/event/list" 4#构建请求参数 5params = {'loc':'108288','day_type':'weekend','type':'exhibition'} 6 7#发送请求 8response = requests.get(URL_GET,params=params) 9#Response Headers 10print(response.headers) 11#Response Code 12print(response.status_code) 13#Response Body 14print(response.text)复制代码
我们可以发现,这两种库还是有一些区别的:
1. 参数的构建:urllib需要对参数进行urlencode编码处理,比较麻烦;requests无需额外编码处理,十分简洁。
2. 请求发送:urllib需要额外对url参数进行构造,变为符合要求的形式;requests则简明很多,直接get对应链接与参数。
3. 连接方式:看一下返回数据的头信息的“connection”,使用urllib库时,"connection":"close",说明每次请求结束关掉socket通道,而使用requests库使用了urllib3,多次请求重复使用一个socket,"connection":"keep-alive",说明多次请求使用一个连接,消耗更少的资源
4. 编码方式:requests库的编码方式Accept-Encoding更全,在此不做举例
综上所诉,使用requests更为简明、易懂,极大的方便我们开发。
02|lxml
BeautifulSoup是一个库,而XPath是一种技术,python中最常用的XPath库是lxml。
当我们拿到requests返回的页面后,我们怎么拿到想要的数据呢?这个时候祭出lxml这强大的HTML/XML解析工具。python从不缺解析库,那么我们为什么要在众多库里选择lxml呢?我们选择另一款出名的HTML解析库BeautifulSoup来进行对比。
我们简单的比较一下:
BeautifulSoup:
1from bs4 import BeautifulSoup #导入库 2# 假设html是需要被解析的html 3 4#将html传入BeautifulSoup 的构造方法,得到一个文档的对象 5soup = BeautifulSoup(html,'html.parser',from_encoding='utf-8') 6#查找所有的h4标签 7links = soup.find_all("h4") 复制代码
lxml:
1from lxml import etree 2# 假设html是需要被解析的html 3 4#将html传入etree 的构造方法,得到一个文档的对象 5root = etree.HTML(html) 6#查找所有的h4标签 7links = root.xpath("//h4") 复制代码
我们可以发现,这两种库还是有一些区别的:
1. 解析html: BeautifulSoup的解析方式和JQ的写法类似,API非常人性化,支持css选择器;lxml的语法有一定的学习成本
2. 性能:BeautifulSoup是基于DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多;而lxml只会局部遍历,另外lxml是用c写的,而BeautifulSoup是用python写的,明显的性能上lxml>>BeautifulSoup。
综上所诉,使用BeautifulSoup更为简明、易用,lxml虽然有一定学习成本,但总体也很简明易懂,最重要的是它基于C编写,速度快很多,对于笔者这种强迫症,自然而然就选lxml啦。
03|json
python自带json库,对于基础的json的处理,自带库完全足够。但是如果你想更偷懒,可以使用第三方json库,常见的有demjson、simplejson。
这两种库,无论是import模块速度,还是编码、解码速度,都是simplejson更胜一筹,再加上兼容性 simplejson 更好。所以大家如果想使用方库,可以使用simplejson。
0x2 确定语料源
将武器准备好之后,接下来就需要确定爬取方向。
以电竞类语料为例,现在我们要爬电竞类相关语料。大家熟悉的电竞平台有企鹅电竞、企鹅电竞和企鹅电竞(斜眼),所以我们以企鹅电竞上直播的游戏作为数据源进行爬取。
我们登陆企鹅电竞官网,进入游戏列表页,可以发现页面上有很多游戏,通过人工去写这些游戏名收益明显不高,于是我们就开始我们爬虫的第一步:游戏列表爬取。
1import requests 2from lxml import etree 3 4# 更新游戏列表 5def _updateGameList(): 6 # 发送HTTP请求时的HEAD信息,用于伪装为浏览器 7 heads = { 8 'Connection': 'Keep-Alive', 9 'Accept': 'text/html, application/xhtml+xml, */*', 10 'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3', 11 'Accept-Encoding': 'gzip, deflate', 12 'User-Agent': 'Mozilla/6.1 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko' 13 } 14 # 需要爬取的游戏列表页 15 url = 'https://egame.qq.com/gamelist' 16 17 # 不压缩html,最大链接时间为10妙 18 res = requests.get(url, headers=heads, verify=False, timeout=10) 19 # 为防止出错,编码utf-8 20 res.encoding = 'utf-8' 21 # 将html构建为Xpath模式 22 root = etree.HTML(res.content) 23 # 使用Xpath语法,获取游戏名 24 gameList = root.xpath("//ul[@class='livelist-mod']//li//p//text()") 25 # 输出爬到的游戏名 26 print(gameList) 复制代码
当我们拿到这几十个游戏名后,下一步就是对这几十款游戏进行语料爬取,这时候问题就来了,我们要从哪个网站来爬这几十个游戏的攻略呢,taptap?多玩?17173?在对这几个网站进行分析后,发现这些网站仅有一些热门游戏的文章语料,一些冷门或者低热度的游戏,例如“灵魂筹码”、“奇迹:觉醒”、“死神来了”等,很难在这些网站上找到大量文章语料,如图所示:
我们可以发现,“ 奇迹:觉醒”、“灵魂筹码”的文章语料特别少,数量上不符合我们的要求。 那么有没有一个比较通用的资源站,它拥有着无比丰富的文章语料,可以满足我们的需求。
其实静下心来想想,这个资源站我们天天都有用到,那就是百度。我们在百度新闻搜索相关游戏,拿到搜索结果列表,这些列表的链接的网页内容几乎都与搜索结果强相关,这样我们数据源不够丰富的问题便轻松解决了。但是此时出现了一个新的问题,并且是一个比较难解决的问题——如何抓取到任意网页的文章内容?
因为不同的网站都有不同的页面结构,我们无法与预知将会爬到哪个网站的数据,并且我们也不可能针对每一个网站都去写一套爬虫,那样的工作量简直难以想象!但是我们也不能简单粗暴的将页面中的所有文字都爬下来,用那样的语料来进行训练无疑是噩梦!
经过与各个网站斗智斗勇、查询资料与思索之后,终于找到一条比较通用的方案,下面为大家讲一讲笔者的思路。
0x3 任意网站的文章语料爬取
01|提取方法
1)基于Dom树正文提取
2)基于网页分割找正文块
3)基于标记窗的正文提取
4)基于数据挖掘或机器学习
5)基于行块分布函数正文提取
02|提取原理
大家看到这几种是不是都有点疑惑了,它们到底是怎么提取的呢?让笔者慢慢道来。
1)基于Dom树的正文提取:
这一种方法主要是通过比较规范的HTML建立Dom树,然后地柜遍历Dom,比较并识别各种非正文信息,包括广告、链接和非重要节点信息,将非正文信息抽离之后,余下来的自然就是正文信息。
但是这种方法有两个问题
① 特别依赖于HTML的良好结构,如果我们爬取到一个不按W3c规范的编写的网页时,这种方法便不是很适用。
② 树的建立和遍历时间复杂度、空间复杂度都较高,树的遍历方法也因HTML标签会有不同的差异。
2) 基于网页分割找正文块 :
这一种方法是利用HTML标签中的分割线以及一些视觉信息(如文字颜色、字体大小、文字信息等)。
这种方法存在一个问题:
① 不同的网站HTML风格迥异,分割没有办法统一,无法保证通用性。
3) 基于标记窗的正文提取:
先科普一个概念——标记窗,我们将两个标签以及其内部包含的文本合在一起成为一个标记窗(比如 <h1>我是h1</h1> 中的“我是h1”就是标记窗内容),取出标记窗的文字。
这种方法先取文章标题、HTML中所有的标记窗,在对其进行分词。然后计算标题的序列与标记窗文本序列的词语距离L,如果L小于一个阈值,则认为此标记窗内的文本是正文。
这种方法虽然看上去挺好,但其实也是存在问题的:
① 需要对页面中的所有文本进行分词,效率不高。
② 词语距离的阈值难以确定,不同的文章拥有不同的阈值。
4)基于数据挖掘或机器学习
使用大数据进行训练,让机器提取主文本。
这种方法肯定是极好的,但是它需要先有html与正文数据,然后进行训练。我们在此不进行探讨。
5)基于行块分布函数正文提取
对于任意一个网页,它的正文和标签总是杂糅在一起。此方法的核心有亮点:① 正文区的密度;② 行块的长度;一个网页的正文区域肯定是文字信息分布最密集的区域之一,这个区域可能最大(评论信息长、正文较短),所以同时引进行块长度进行判断。
实现思路:
① 我们先将HTML去标签,只留所有正文,同时留下标签取出后的所有空白位置信息,我们称其为Ctext;
② 对每一个Ctext取周围k行(k<5),合起来称为Cblock;
③ 对Cblock去掉所有空白符,其文字总长度称为Clen;
④ 以Ctext为横坐标轴,以各行的Clen为纵轴,建立坐标系。
以这个网页为例: http://www.gov.cn/ldhd/2009-11/08/content_1459564.htm 该网页的正文区域为145行至182行。
由上图可知,正确的文本区域全都是分布函数图上含有最值且连续的一个区域,这个区域往往含有一个骤升点和一个骤降点。因此,网页正文抽取问题转化为了求行块分布函数上的骤升点和骤降点两个边界点,这两个边界点所含的区域包含了当前网页的行块长度最大值并且是连续的。
经过大量实验,证明此方法对于中文网页的正文提取有较高的准确度,此算法的优点在于,行块函数不依赖与HTML代码,与HTML标签无关,实现简单,准确率较高。
主要逻辑代码如下:
1# 假设content为已经拿到的html 2 3# Ctext取周围k行(k<5),定为3 4blocksWidth = 3 5# 每一个Cblock的长度 6Ctext_len = [] 7# Ctext 8lines = content.split('n') 9# 去空格 10for i in range(len(lines)): 11 if lines[i] == ' ' or lines[i] == 'n': 12 lines[i] = '' 13# 计算纵坐标,每一个Ctext的长度 14for i in range(0, len(lines) - blocksWidth): 15 wordsNum = 0 16 for j in range(i, i + blocksWidth): 17 lines[j] = lines[j].replace("\s", "") 18 wordsNum += len(lines[j]) 19 Ctext_len.append(wordsNum) 20# 开始标识 21start = -1 22# 结束标识 23end = -1 24# 是否开始标识 25boolstart = False 26# 是否结束标识 27boolend = False 28# 行块的长度阈值 29max_text_len = 88 30# 文章主内容 31main_text = [] 32# 没有分割出Ctext 33if len(Ctext_len) < 3: 34 return '没有正文' 35for i in range(len(Ctext_len) - 3): 36 # 如果高于这个阈值 37 if(Ctext_len[i] > max_text_len and (not boolstart)): 38 # Cblock下面3个都不为0,认为是正文 39 if (Ctext_len[i + 1] != 0 or Ctext_len[i + 2] != 0 or Ctext_len[i + 3] != 0): 40 boolstart = True 41 start = i 42 continue 43 if (boolstart): 44 # Cblock下面3个中有0,则结束 45 if (Ctext_len[i] == 0 or Ctext_len[i + 1] == 0): 46 end = i 47 boolend = True 48 tmp = [] 49 50 # 判断下面还有没有正文 51 if(boolend): 52 for ii in range(start, end + 1): 53 if(len(lines[ii]) < 5): 54 continue 55 tmp.append(lines[ii] + "n") 56 str = "".join(list(tmp)) 57 # 去掉版权信息 58 if ("Copyright" in str or "版权所有" in str): 59 continue 60 main_text.append(str) 61 boolstart = boolend = False 62# 返回主内容 63result = "".join(list(main_text)) 复制代码
0x4 结语
至此我们就可以获取任意内容的文章语料了,但这仅仅是开始,获取到了这些语料后我们还需要在一次进行清洗、分词、词性标注等,才能获得真正可以使用的语料。
*请认真填写需求信息,我们会在24小时内与您取得联系。