整合营销服务商

电脑端+手机端+微信端=数据同步管理

免费咨询热线:

用HTML代码来做端午赛龙舟特效,分享(视频+源码)

舟动画图

今天端午节,晚点的我祝大家端午节快乐,出去游玩的注意安全哦!端午节我们必做的两件事是跟家人朋友一起吃粽子看赛龙舟,小编我今天就给大家分享是一个赛龙舟的特效,我也是刚学前端没多久,希望多予以指教!

其实我也是从零学起的,开始是因为对互联网有爱好,对浏览网页上的炫酷特效有浓厚的兴趣,然后就加上了这么一个学习的大家庭,给大家推荐一下我建的HTML5进阶学习群:250777811,如果大家正在学习网页制作web前端或者有兴趣转行学习的都欢迎各位申请进来,跟我们一群志同道合的人学习交流。

HTML及javascript部分源码:



HTML代码图

因代码过长,全部代码都已经分享到群文件了250777811

这个龙舟特性的完成附有完整的视频讲解,大家可以加群获取视频学习250777811

视频知识点概况:

企业代码规范与标准,CSS3动画,CSS3选择器,元素定位,延迟动画,动画序列,HTML优化方案,背景图片使用,常用标签详解,前端学习路线须知,2017年前端就业形势分析

头条号有程序员学习的经典HTML5游戏案例,欢迎关注!

近临近开学了,大家都在忙着准备各种学习的资料,准备在新的学期好好学习,充实自己。小编身边的同学也是如此,最近,小编的同学小丽就遇到了一个很棘手的问题。

她想将一个网页的Python学习的教程打印下来,方便自己来学习,但是上千页的教程,如果通过手动的方式,一个一个的去转成pdf并保存到本地,实在是麻烦的不。

这就是一个html转pdf的问题,其实网上有很多不错的html资源,但是苦于学习起来,不方便!于是小编就跟小丽保证,这点小事包在我身上。今天,小编就跟分享一下如何用Python把html资料变成pdf。

01.抓取的学习资料

如今网上的在线学习资料可谓是多如牛毛,为了方便讲解,小编就利用python3.9.2的中文文档作为演示的例子,来将其抓取并保存到本地,其网页链接如下:

https://docs.python.org/zh-cn/3.9/tutorial/index.html

打开上述链接后,大家会在网页中找到不同内容的链接地址,包括了基础的python字符、python语法等内容。

02.获取网页链接

在上图中,我们需要格外关注的是红色方格标注的链接,每个链接都会跳转到对应的子网页中,而在子网页中,就是我们想要保存的内容。

可以看到,上图中,在python速览子页面中,包含了我们需要提取的文字内容。所以将html内容保存为pdf的第一步便是获取到子页面的链接。由于教程大都是固定内容,因此对于教程的网页,大都采用的是静态页面,在网页源代码中可以很轻松地找到子页面的网页链接。

对于子网页的链接抓取,程序如下图所示:

程序中,通过BeautifulSoup库来解析网页源代码,然后提取所有的子页面链接地址并返回,如果抓取失败,则直接返回None


03.html转pdf

在得到子网页的链接后,接下来就是将html的子网页保存为pdf文件。小编使用的pdfkit库,pdfkit库可以将网页保存为pdf文档。首先小编来介绍一下pdfkit库的安装。

  • 下载https://github.com/wkhtmltopdf/packaging/releases/download/0.12.6-1/wkhtmltox-0.12.6-1.mxe-cross-win64.7z 并解压到本地文件中。(后台输入:pdf) 直接获取。
  • 将解压文件中的bin文件路径添加到系统变量Path中。
  • 执行pip install pdfkit
  • 执行pip install wkhtmltopdf

按照上述的操作流程,就可以安装pdfkit库。对于pdfkit库的使用,常见的用法有以下三种:

上面的程序主要完成以下几步:

首先需要指定wkhtmltopdf.exe文件的路径;

  • 然后分别通过from_url、from_file和from_string的三种方式来保存为pdf文件;
  • 需要注意的是,from_file和from_url中的第一个参数必须是一个html的字符串或者是html文档的列表;
  • 但是小编通过程序运行发现,from_url第一个参数只能是html的字符串,不能是html的列表


因此,pdfkit库只能将子网页保存为单独的pdf文档,无法直接通过pdfkit库将所有的子网页拼接成一个完整的pdf文档,小编通过PyPDF2库中的PdfFileMerger类来实现pdf文档的拼接。程序如下图所示。

程序中首先将所有的html网页保存为单独的pdf文档,然后通过PdfFileMerger类对象来实现pdf文档的拼接。最后就可以得到全部的pdf内容。最后我们通过视频的展示,来看一下程序的效果吧。


除此之外,程序不光可以抓取python3.9的中文文档,针对其他的在线文档,只需要对获取网页链接的程序进行修改即可抓取,例如对于Flask中文文档的抓取,程序只需要按照下图进行修改,即可将Flask的在线文档保存为PDF文档。

04.总结

学习Python其实非常有趣,也很有用。因为Python有大量的现成的库,可以帮助我们把工作中的很多琐碎的烦事轻松解决。小编将上述的程序稍加修改,很快就帮阿丽搞定了教程,保存为pdf发送给了她,小编与女神的关系更拉近了一步


在网络安全领域,暗链接(或隐藏链接)是一种常见的网络欺诈手段。它们通常隐藏在网页代码中,对普通用户不可见,但可能指向恶意网站或用于执行不安全的操作。因此,从网页源代码中检测并识别这些暗链接变得尤为重要。本文将探讨如何从提取的HTML源代码中检测暗链接,并将这些链接进行输出。

一、理解暗链接

什么是暗链接:

暗链接通常指的是隐藏在网页中,对用户不明显,但可能含有恶意内容的链接。

暗链接的常见形式:

完全隐藏的链接,如使用CSS将链接设为透明或大小为零。

使用微小的文本或图像作为链接。

将链接嵌入到不相关元素中。

二、HTML源代码的检测方法

分析HTML结构:

介绍如何查看和理解网页的HTML源代码。

解释如何识别HTML中的链接元素(通常是<a>标签)。

检测暗链接的技术:

使用HTML和CSS属性来识别隐藏的链接,如display: none;、opacity: 0;或width: 0px; height: 0px;等。

检查链接的文本内容和尺寸,判断是否可疑。

三、实现暗链接检测

工具和技术选择:

介绍可用于解析HTML和CSS的工具,如Python的BeautifulSoup库。

代码实现:

提供一个基本的脚本示例,展示如何从HTML中提取链接并检查其属性以识别暗链接。

四、案例分析

实际网页案例:

选取一个包含暗链接的网页作为案例,展示如何使用工具检测这些链接。

结果展示和分析:

展示检测到的暗链接,并对其可能的风险进行分析。

五、总结与预防建议

总结:

强调检测暗链接在网络安全中的重要性。

预防建议:

提供一些基本的网络安全建议,帮助用户识别和避免访问暗链接。

小结

通过本文的讨论,读者可以了解如何从HTML源代码中检测暗链接,并了解这些链接可能带来的风险。虽然这需要一定的技术知识,但通过合适的工具和方法,可以有效地识别和防范这种网络安全威胁。

示例代码(Python使用BeautifulSoup检测暗链接)

python

from bs4 import BeautifulSoup

import requests

# 加载网页内容

url = "https://example.com"

html_content = requests.get(url).text

soup = BeautifulSoup(html_content, 'html.parser')

# 检测暗链接

dark_links = []

for link in soup.find_all('a'):

if link.get('style'):

styles = link.get('style').split(';')

if any(s in styles for s in ['display:none', 'opacity:0', 'width:0px', 'height:0px']):

dark_links.append(link.get('href'))

# 输出检测到的暗链接

print("Detected Dark Links:", dark_links)

这段代码演示了如何使用BeautifulSoup库来解析HTML,并检查每个链接的CSS样式以识别是否为暗链接。这只是一个基本的示例,实际应用中可能需要更复杂的逻辑来处理各种隐藏技术。