function getMeta(varA, varB) { if (typeof varB !== 'undefined') { alert(varA + ' width ' + varB + ' height'); } else { var img = new Image(); img.src = varA; img.onload = function() { getMeta(this.width, this.height); } }}getMeta("http://snook.ca/files/mootools_83_snookca.png");
于项目要求,需要利用php做一个获取远程页面html状态码的功能,用来判断远程页面是否可以访问,就类似那种HTML页面状态码检测工具一样。整理了一下代码,贴出来。有需要的可以拿去用哦。
php获取远程页面的html状态码,有两种方法。一种是用了php的内置函数 get_headers(),一种是用了 curl 方法。
方法一:
<?php $arr = get_headers('http://feiniaomy.com'); echo $arr[0]; echo '<br/>'; $arr1 = get_headers('http://www.feiniaomy.com'); echo $arr1[0]; echo '<br/>'; $arr2 = get_headers('https://www.feiniaomy.com'); echo $arr2[0]; ?>
输出结果:
HTTP/1.1 301 Moved Permanently HTTP/1.1 301 Moved Permanently HTTP/1.1 200 OK
注:
由于测试网址(本博客url) HTTP 协议都301到了 HTTPS 协议的 www 二级域名上,所以前两次会输出html的301状态码,最后一次是直接请求的 HTTPS 协议的地址,直接返回 HTML 200的状态码。
方法二:
<?php $ch = curl_init('https://www.baidu.com'); curl_setopt($ch,CURLOPT_RETURNTRANSFER,1); curl_exec($ch); $httpcode = curl_getinfo($ch,CURLINFO_HTTP_CODE); curl_close($ch); ?>
返回结果:
一些网站上经常看到一些好的图片希望批量下载保存到本地,但是一个个右击保存有显的十分麻烦,这里可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地,功能有点类似我们之前学过的批处理。下面就看看如何使用python来实现这样一个功能,主要分为三步,如下:
一. 获取整个页面数据
首先我们可以先获取要下载图片的整个页面信息。
创建getjpg.py文件
说明:
Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。
首先,我们定义了一个getHtml()函数;
urllib.urlopen()方法用于打开一个URL地址;
read()方法用于读取URL上的数据;
向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。
二. 筛选页面中想要的数据
Python 提供了非常强大的正则表达式,我们需要先要了解一点python 正则表达式的知识才行。
re模块中一些重要的函数:
假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src="http://www.hmttv.cn/uploadfile/2024/0808/20240808043622171.jpg"
我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:
re.compile() 可以把正则表达式编译成一个正则表达式对象.
re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。
运行脚本将得到整个页面中包含图片的URL地址。
三. 将页面筛选的数据保存到本地
把筛选的图片地址通过for循环遍历并保存到本地,代码如下:
这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。
通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。
程序运行完成,将在目录下看到下载到本地的文件。
效果如下:
*请认真填写需求信息,我们会在24小时内与您取得联系。