整合营销服务商

电脑端+手机端+微信端=数据同步管理

免费咨询热线:

如何在Facebook主页上创建帖子?Faceboo

如何在Facebook主页上创建帖子?Facebook主页帖子创建教程(附视频讲解)

五课时回顾:主要介绍了如何通过Facebook主页找到更对我们的业务感兴趣的潜在用户。当我们找到潜在受众后就要开始针对自己的业务和客户创建适当的帖子。所以第六课时主要讲述如何在Facebook主页上创建帖子,

通过Facebook主页发帖时,您可以:

1.撰写会立即显示在主页上的更新

2.向帖子添加照片和视频

3.设置排期帖,节省时间

4.速推帖子,向更多用户营销

5.创建优惠或活动

6.将帖子译为不同的语言

一、创建Facebook基本帖子

只需在显示“最近在忙什么呢?”的方框中键入内容。

状态更新可以是您认为客户会感兴趣的任何内容,例如:促销公告或新品照片。所有帖子都会显示在Facebook主页上,并可能会显示在主页点赞用户的动态消息中。

1. 点击时钟图标即可设置排期贴,在日后发布。

2. 点击定位图标即可选择帖子的分享对象。如果只想向特定年龄或位于特定国家/地区的客户展示帖子,此功能很有用。

3. 点击地点图标即可添加自己所在的地点——如果在不同的地点或在活动中发帖,此功能很有用。

4. 点击相机图标即可向帖子添加照片或视频。

5. 准备好帖子后,只需点击“发布”。

二、在Facebook主页上为帖子获得更多关注

帖子发布后,您可以增加帖子的关注度。

点击帖子右上角的箭头,然后选择:

1.置顶,让帖子保持在Facebook主页顶部。该帖子将是用户第一眼看到的帖子,如果您有重要更新或活动,此功能就是绝佳选择。

2.嵌入帖子,将帖子添加到网站。如果希望网站访客看到某个特别的帖子,Facebook 将为您提供一小段代码,用于添加至网页的 HTML 代码中。当访客在网站上点击该帖子时,他们将直接转至您的 Facebook 主页。

三、关于您业务的优惠、活动或大事记的帖子

您还可以通过Facebook帖子为客户提供优惠、邀请他们参加活动或向他们介绍您业务的特别大事记。

只需点击状态更新字段顶部的“优惠、活动 +”即可创建此类帖子。

A.优惠

优惠是用户可以在 Facebook 领取并在您店铺中使用的限时折扣,例如抵用券。

1. 点击“活动、大事件+”,然后选择“优惠”。

2. 填写表格,包括优惠的投放时间、可以领取优惠的客户数量、想要覆盖的受众、以及愿意花费的预算。

B.活动

当用户接受活动邀请后,系统就会将活动添加至用户个人的 Facebook 活动日历。

他们会收到活动提醒,并在活动更改后收到通知。您还可以查看谁接受了邀请,以便了解参加活动的预计人数。

1. 点击“优惠、活动+”,然后选择“活动”。

2. 填写表格,包括名称、地点、时间等。

C.大事记

主页还可用于庆祝您业务的特别事件,例如:开业仪式或周年纪念。

1. 点击“优惠、活动+”,然后选择“大事件”。

2. 填写表格,包括标题、地区、时间等。

D.按地区或语言显示帖子

如果客户遍布世界各地或使用不同的语言,则可以设置帖子,使其针对特定地区/语言向相应客户展示。*

1. 点击“公开”按钮,然后选择“区域/语言”。选择显示帖子的地区和分享对象所使用的语言。

2. 点击“保存发帖设置”按钮,即可按照您的设置向特定分享对象显示帖子。

*设置此功能后,客户必须位于所选地区或将 Facebook 设置为所选语言,才能在您的主页、自己的动态消息或搜索结果中看见相关帖子。

E.指尖轻触,创建帖子

在Facebook主页管理应用中,前往主页并轻触“发帖”或“分享照片”。

轻触“发帖”后,可以通过显示的键盘输入文本。轻触键盘上方的相机图标,可以添加照片应用中的照片并编辑这些照片。轻触时钟图标,可以设置排期帖,让帖子在预定时间显示。

轻触“分享照片”,可以选择照片应用中的照片,编辑照片,并添加与照片一起显示的文字。

1. 轻触“文字内容”或“照片”即可向主页发帖

2. 轻触相机图标即可向帖子添加照片

3. 直接在主页管理应用中编辑照片,让它们更抢眼

4. 点击时钟图标可设置排期贴,以便在日后显示

博及 Twitter 这两大社交平台都重度依赖 Redis 来承载海量用户访问。本文介绍如何使用 Redis 来设计一个社交系统,以及如何扩展 Redis 让其能够承载上亿用户的访问规模。

虽然单台 Redis 具备极佳的性能,但随着系统规模增大,单台服务器不能存储所有数据、以及没办法处理所有读写请求的问题迟早都会出现,这时我们就需要对 Redis 进行扩展,让它能够满足需求。

在介绍如何扩展之前,我们先看下如何用 Redis 来搭建一个社交平台。

使用 Redis 搭建社交平台

用 Redis 来搭建一个社交平台,需要首先考虑以下几个核心功能。

1. 已发表微博

可以使用 Redis 的 hash 来保存已发表微博。

一条微博通常包括多个字段,比如发表时间、发表用户、正文内容等,通常使用微博 id 作为 key 将多个键值对作为 hash 保存在 Redis 中。

2. 信息流

当一个用户访问它的首页信息流时候,他可以看到他所有关注用户最新的信息。key 是当前用户的 uid, 信息流的内容以 id / timestamp 的形式保存在 zset 中,timestamp 用于排序,以便返回的列表是按照时间顺序排列。微博的 id 用于业务下一步获取微博的相关信息。

3. 关注与粉丝

我们可以把关注及粉丝库也存在 zset 中,依旧使用 timestamp 来排序。key 是当前用户 uid。

了解上述结构之后,我们继续来看如何使用 Redis 来扩展整个系统,具备处理亿级用户的能力。

我们首先要做的,就是在 Redis 能够存储所有数据并且能够正常地处理写查询的情况下,让 Redis 的读查询处理能力超过单台 Redis 服务器所能提供的读查询处理能力。

扩展读性能

假定我们用 Redis 构建一个与微博或 Twitter 具有相同特性和功能的社交网站,网站的其中一个特性就是允许用户查看他们自己的 profile 页和个人首页信息流,每当用户访问时,程序就会从信息流里面获取大约 30 条内容。

因为一台专门负责获取信息流的 Redis 服务器每秒至少可以同时为 3,000 ~ 10,000 个用户获取信息流消息,所以这一操作对于规模较小的社交网站来说并不会造成什么问题。

但是对于规模更大的社交网站来说,程序每秒需要获取的信息流消息数量将远远超过单台 Redis 服务器所能处理的上限,因此我们必须想办法提升 Redis 每秒能够获取的信息流消息数量。

下面我们将会讨论如何使用只读的从服务器提升系统处理读查询的性能,使得系统的整体读性能能够超过单台 Redis 服务器所能提供的读查询性能上限。

在对读查询的性能进行扩展,并将额外的服务器用作从服务器以提高系统处理读查询的性能之前,让我们先来回顾一下 Redis 提高性能的几个途径。

  • 在使用短结构时,请确保压缩列表的最大长度不会太大以至于影响性能。

  • 根据程序需要执行的查询的类型,选择能够为这种查询提供最好性能的结构。比如说,不要把 LIST 当作 SET 使用;也不要获取整个 HASH 然后在客户端里面对其进行排序,而是应该直接使用 ZSET;诸如此类。

  • 在将大体积的对象缓存到 Redis 之前,考虑对它进行压缩以减少读取和写入对象时所需的网络带宽。对比压缩算法 lz4、gzip 和 bzip2,看看哪个算法能够对被存储的数据提供最好的压缩效果和最好的性能。

  • 使用 pipeline(pipeline 是否启用事务性质由具体的程序决定)以及连接池。

在做好了能确保读查询和写查询能够快速执行的一切准备之后,接下来要考虑的就是如何实际解决“怎样才能处理更多读请求”这个正题。

提升 Redis 读取能力的最简单方法,就是添加提供读能力的从服务器

用户可以运行一些额外的服务器,让它们与主服务器进行连接,然后接受主服务器发送的数据副本并通过网络进行准实时的更新(具体的更新速度取决于网络带宽)。通过将读请求分散到不同的从服务器上面进行处理,用户可以从新添加的从服务器上获得额外的读查询处理能力。

记住:只对主服务器进行写入

在使用只读从服务器的时候,请务必记得只对 Redis 主服务器进行写入。在默认情况下,尝试对一个被配置为从服务器的 Redis 服务器进行写入将引发一个错误(就算这个从服务器是其他从服务器的主服务器,也是如此)。

简单来说,要将一个 Redis 服务器变为从服务器,我们只需要在 Redis 的配置文件里面,加上一条 slaveof host port语句,并将 host 和 port 两个参数的值分别替换为主服务器的 IP 地址和端口号就可以了。除此之外,我们还可以通过对一个正在运行的 Redis 服务器发送SLAVEOF host port命令来把它配置为从服务器。需要注意的一点是,当一个从服务器连接至主服务器的时候,从服务器原本存储的所有数据将被清空。最后,通过向从服务器发送SLAVEOF no one命令,我们可以让这个从服务器断开与主服务器的连接。

使用多个 Redis 从服务器处理读查询时可能会遇到的最棘手的问题,就是主服务器临时下线或者永久下线。每当有从服务器尝试与主服务器建立连接的时候,主服务器就会为从服务器创建一个快照,如果在快照创建完毕之前,有多个从服务器都尝试与主服务器进行连接,那么这些从服务器将接收到同一个快照。从效率的角度来看,这种做法非常好,因为它可以避免创建多个快照。

但是,同时向多个从服务器发送快照的多个副本,可能会将主服务器可用的大部分带宽消耗殆尽。使主服务器的延迟变高,甚至导致主服务器已经建立了连接的从服务器断开。

解决从服务器重同步(resync)问题的其中一个方法,就是减少主服务器需要传送给从服务器的数据数量,这可以通过构建树状复制中间层来完成

(图:一个 Redis 主从复制树示例,树的最底层由 9 个从服务器组成,而中间层则由 3 个复制辅助服务器组成)

从服务器树非常有用,在对不同数据中心(data center)进行复制的时候,这种从服务器树甚至是必需的:通过缓慢的广域网(WAN)连接进行重同步是一件相当耗费资源的工作,这种工作应该交给位于中间层的从服务器去做,而不必劳烦最顶层的主服务器。但是另一方面,构建从服务器树也会带来复杂的网络拓扑结构(topology),这增加了手动和自动处理故障转移的难度。

除了构建树状的从服务器群组之外,解决从服务器重同步问题的另一个方法就是对网络连接进行压缩,从而减少需要传送的数据量。一些 Redis 用户就发现使用带压缩的 SSH 隧道(tunnel)进行连接可以明显地降低带宽占用,比如某个公司就曾经使用这种方法,将复制单个从服务器所需的带宽从原来的 21Mbit 降低为 1.8Mbit(http://mng.bz/2ivv)。如果读者也打算使用这个方法的话,那么请记得使用 SSH 提供的选项来让 SSH 连接在断线后自动重连。

加密和压缩开销

一般来说,使用 SSH 隧道带来的加密开销并不会给服务器造成大的负担,因为2.6 GHz 主频的英特尔酷睿 2 单核处理器在只使用单个处理核心的情况下,每秒能够使用 AES-128 算法加密 180MB 数据,而在使用 RC4 算法的情况下,每秒则可以加密大约 350MB 数据。在处理器足够强劲并且拥有千兆网络连接的情况下,程序即使在加密的情况下也能够充分地使用整个网络连接。

唯一可能会出问题的地方是压缩—因为 SSH 默认使用的是 gzip 压缩算法。SSH 提供了配置选项,可以让用户选择指定的压缩级别(具体信息可以参考SSH的文档),它的 1 级压缩在使用之前提到的 2.6GHz 处理器的情况下,可以在复制的初始时候,以每秒 24~52MB 的速度对 Redis 的 RDB 文件进行压缩;并在复制进入持续更新阶段之后,以每秒 60~80MB 的速度对 Redis 的 AOF 文件进行压缩。

使用 Redis Sentinel

Redis Sentinel 可以配合 Redis 的复制功能使用,并对下线的主服务器进行故障转移。Redis Sentinel 是运行在特殊模式下的 Redis 服务器,但它的行为和一般的 Redis 服务器并不相同。

Sentinel 会监视一系列主服务器以及这些主服务器的从服务器,通过向主服务器发送 PUBLISH命令和 SUBSCRIBE 命令,并向主服务器和从服务器发送PING命令,各个 Sentinel 进程可以自主识别可用的从服务器和其他 Sentinel。

当主服务器失效的时候,监视这个主服务器的所有 Sentinel 就会基于彼此共有的信息选出一个 Sentinel,并从现有的从服务器当中选出一个新的主服务器。当被选中的从服务器转换成主服务器之后,那个被选中的 Sentinel 就会让剩余的其他从服务器去复制这个新的主服务器(在默认设置下,Sentinel 会一个接一个地迁移从服务器,但这个数量可以通过配置选项进行修改)。

一般来说,使用 Redis Sentinel 的目的就是为了向主服务器属下的从服务器提供自动故障转移服务。此外,Redis Sentinel 还提供了可选的故障转移通知功能,这个功能可以通过调用用户提供的脚本来执行配置更新等操作。

更深入了解 Redis Sentinel 可以阅读 http://redis.io/topics/sentinel

在了解如何扩展读性能的方法之后,接下来我们该考虑如何扩展写性能了。

扩展写性能和内存容量

随着被缓存的数据越来越多,当数据没办法被存储到单台机器上面的时候,我们就需要想办法把数据分割存储到由多台机器组成的集群里面。

扩展写容量

尽管这一节中讨论的是如何使用分片来增加可用内存的总数量,但是这些方法同样可以在一台 Redis 服务器的写性能到达极限的时候,提升 Redis 的写吞吐量。

在对写性能进行扩展之前,首先需要确认我们是否已经用尽了一切办法去降低内存占用,并且是否已经尽可能地减少了需要写入的数据量。

  • 对自己编写的所有方法进行了检查,尽可能地减少程序需要读取的数据量。

  • 将无关的功能迁移至其他服务器。

  • 在对 Redis 进行写入之前,尝试在本地内存中对将要写入的数据进行聚合计算,这一做法可以应用于所有分析方法和统计计算方法。

  • 使用锁去替换可能会给速度带来限制的 WATCH/MULTI/EXEC 事务,或者使用 Lua 脚本。

  • 在使用 AOF 持久化的情况下,机器的硬盘必须将程序写入的所有数据都存储起来,这需要花费一定的时间。对于 400,000 个短命令来说,硬盘每秒可能只需要写入几 MB 的数据;但是对于 100,000 个长度为 1KB 的命令来说,硬盘每秒将需要写入100MB 的数据。

如果用尽了一切方法降低内存占用并且尽可能地提高性能之后,问题仍然未解决,那么说明我们已经遇到了只使用单台机器带来的瓶颈,是时候将数据分片到多台机器上面了。

本文介绍的数据分片方法要求用户使用固定数量的 Redis 服务器。举个例子,如果写入量预计每 6 个月就会增加 4 倍,那么我们可以将数据预先分片(preshard)到 256 个分片里面,从而拥有一个在接下来的 2 年时间里面都能够满足预期写入量增长的分片方案(具体要规划多长远的方案要由你自己决定)。

为了应对增长而进行预先分片

在为了应对未来可能出现的流量增长而对系统进行预先分片的时候,我们可能会陷入这样一种处境:目前拥有的数据实在太少,按照预先分片方法计算出的机器数量去存储这些数据只会得不偿失。为了能够如常地对数据进行分割,我们可以在单台机器上面运行多个 Redis 服务器,并将每个服务器用作一个分片。

注意,在同一台机器上面运行多个 Redis 服务器的时候,请记得让每个服务器都监听不同的端口,并确保所有服务器写入的都是不同的快照文件或 AOF 文件。

在单台机器上面运行多个 Redis 服务器

上面介绍了如何将写入命令分片到多台服务器上面执行,从而增加系统的可用内存总量并提高系统处理写入操作的能力。但是,如果你在执行诸如搜索和排序这样的复杂查询时,感觉系统的性能受到了 Redis 单线程设计的限制,而你的机器又有更多的计算核心、更多的通信网络资源,以及更多用于存储快照文件和 AOF 文件的硬盘 I/O,那么你可以考虑在单台机器上面运行多个 Redis 服务器。你需要做的就是对位于同一台机器上面的所有服务器进行配置,让它们分别监听不同的端口,并确保它们拥有不同的快照配置或 AOF 配置。

扩展复杂的业务场景

在对各式各样的 Redis 服务进行扩展的时候,常常会遇到这样一种情况:因为服务执行的查询并不只是读写那么简单,所以只对数据进行简单分片并不足以满足复杂业务场景的需求。

对社交网站进行扩展

下面介绍如何对类似微博或者 Twitter 这样的社交网站进行扩展,介绍的目的是为了让我们更好的理解使用什么样的数据结构及方法来构建一个大型社交网络,这些方法几乎可以无限制地进行——只要资金允许,我们可以将一个社交网站扩展至任意规模。

对社交网站进行扩展的第一步,就是找出经常被读取的数据以及经常被写入的数据,并思考是否有可能将常用数据和不常用数据分开

首先,假设我们已经把用户已发表的微博放在一个独立的 Redis 服务器,并使用只读的从服务器处理针对这些数据进行大量读取操作。那么一个社交网站上需要进行扩展的主要是两个类型的数据:信息流、关注及粉丝列表。

扩展已发表微博的数据库

当你的社交网站获得一定的访问量之后,我们需要对存储已发表微博的数据库做进一步的扩展,而不仅仅只添加从服务器。

因为每条微博都完整地存储在一个单独的 HASH 里面,所以程序可以很容易地基于散列所在的键,把各条微博 hash 分片到由多个 Redis 服务器组成的集群里面。

因为对每条微博 hash 进行分片并不困难,所以分片的工作应该并不难完成。扩展微博数据库的另一种方法,就是将 Redis 用作缓存,并把最新发布的消息存储到 Redis 里,而较旧(也就是较少读取)的消息则存储到以硬盘存储为主的服务器里面,像 PostgreSQL、MySQL、Riak、MongoDB 等。

在一个社交网站上,主要的信息流有 3 种:用户首页的信息流、profile 信息流以及分组信息流。各个信息流本身都是相似的,所以我们将使用相同的处理方式。

下面我们来看社交系统中最核心的两种系统如何通过不同的分片策略对其进行扩展。

1.对信息流列表进行分片

标题所说的“对信息流进行分片”实际上有些词不达意,因为首页信息流和分组列表信息流通常都比较短(最大通常只有 1,000 条,实际的数量由 zset-max-ziplist-size选项的值决定),因此实际上并不需要对信息流的内容进行分片;我们真正要做的是根据键名,把不同的信息流分别存储到不同的分片上面。

另一方面,社交网站每个用户 profile 信息流通常无限增长的。尽管绝大多数用户每天最多只会发布几条微博,但也有话痨用户以明显高于这一频率的速度发布大量信息。以 Twitter 为例,该网站上发布信息最多的 1,000 个用户,每人都发布了超过 150,000 条推文,而其中发布最多的 15 个用户,每人都发布了上百万条推文。

从实用性的角度来看,一个合乎情理的做法是限制每个用户的已发表微博最多只能存储大约 20,000 条信息,并将最旧的信息删除或者隐藏——这种做法足以处理 99.999% 的 Twitter 用户,而我们也会使用这一方案来对社交网站的个人信息流进行扩展。扩展个人信息流的另一种方法,就是使用本节稍后介绍的关注库进行扩展的技术。

2.通过分片对关注及粉丝列表扩展

虽然对信息流进行扩展的方法相当直观易懂,但是对关注和粉丝列表这些由有序集合构成的“列表”进行扩展却并不容易。这些有序集合绝大多数都很短(如 Twitter 上 99.99% 的用户的关注者都少于 1,000 人),但是也存在少量用户的列表非常大,他们关注了非常多的人或者拥有数量庞大的粉丝。

从实用性的角度来考虑,一个合理的做法是给用户以及分组可以关注的人数设置一个上限(比如新浪微博普通用户最大允许关注 2,000 用户)。不过这个方法虽然可以控制用户的关注人数,但是仍然解决不了单个用户的粉丝数人数过多的问题。

为了处理关注和粉丝列表变得非常巨大的情况,我们需要将实现这些列表的有序集合划分到多个分片上面,说得更具体一样,也就是根据分片的数量把用户的粉丝划分为多个部分,存在多个 zset 中。为此,我们需要为 ZADD命令、ZREM命令和ZRANGEBYSCORE命令实现特定的分片版本。

和信息流分片的区别是,这次分片的对象是数据而不是键。此外,为了减少程序创建和调用连接的数量,把关注和粉丝的数据放置在同一个分片里面将是一种非常有意义的做法。因此这次我们将使用新的方法对数据进行分片。

为了能够在关注及粉丝数据进行分片的时候,把两者数据都存储到同一个分片里面,程序将会把关注者和被关注者双方的 ID 用作查找分片键的其中一个参数。

总结

本章对各式各样的程序进行了回顾,介绍了一些对它们进行扩展以处理更多读写流量并获得更多可用内存的方法,其中包括使用只读从服务器、使用可以执行写查询的从服务器、使用分片以及使用支持分片功能的类和函数。尽管这些方法可能没有完全覆盖读者在扩展特定程序时可能会遇到的所有问题,但是这些例子中展示的每项技术都可以广泛地应用到其他情景里面。

本文希望向读者传达这样一个概念:对任何系统进行扩展都是一项颇具挑战性的任务。但是通过 Redis,我们可以使用多种不同的方法来对平台进行扩展,从而把平台扩展成我们想要的规模。

本文节选自人民邮电出版社《Redis 实战》第 8、10 章,由聚焦 Redis 领域的黄健宏翻译,感兴趣的读者可以在各大书店购买。以下是翻译过程中的一张照片,看出译者对质量非常用心。

图片来源:http://blog.huangz.me/diary/2015/memories-of-redis-in-action-translation.html

人邮也新开了公众号「人邮 IT 书坊」长期提供最新 IT 图书资讯,欢迎关注。

、背景

疫情至今近三年,国家和各省市卫健委官网都是通过全文本通报每日疫情数据,内容数据里有境外、国内,有确诊、无症状,确诊里又可能含无症状转确诊(各地通报不一样)等等,一堆文字和数据看的确实头疼,一直不明白为什么不做成表格,降低信息传递的成本。最近有点时间,就尝试做了个这样的项目:每日自动获取国家卫健委官网疫情数据转并为表格,再自动发布到。


二、程序执行效果

先看下程序执行的效果吧,可以关注“橙狮科技”头条号,查看每日自动更新的微头条。


三、方案实现

1、总体方案
整体方案如图1,流程比较清晰,重点是如何通过程序发布头条(下文会展开描述)。开发语言选择Python,主要原因是:有丰富的相关功能库,语法相对简单,解析语言跨平台方便。

图1


2、数据获取
这一步骤大致如下,相对简单,具体就不展开描述了:
1、http get 网页内容
2、通过BeautifulSoup 解析HTML,清洗html文本数据,获取疫情文本内容


3、数据处理
1)第一步
数据处理的第一步是获取全国,各省和新疆兵团的各自维度病例数,如本土确诊,本土无症状,本土无症状转确诊,境外输入确诊,境外输入无症状等。获取的文本内容如图2,卫健委每日通报文本内容结构都是一致的,如先通报国外数据,再通报国内数据,各省市的数据都在括号里、逗号分隔,这些都是程序处理的关键逻辑和标识符。这部分程序上都是字符串的处理,输出pyhton字典保存各维度病例数,具体代码逻辑就不展开描述了。

图2


2)第二步
获取到各维度病例数后,接着就是生成表格图片,这里花了一些时间做调研和调试,主要希望生成表格清晰简洁,最终使用的是plotly库,效果如图3,图中红色字体的表头也是程序生成的。

图3


4、发布微头条
并未开放open api来发布内容,通过程序自动发布头条有两种方案:

  1. 一开始做的是mock api的方案,模拟构造登录和发布微头条API流,来实现自动发布。这个方案虽然调试通过,但并不稳定,不使用。
  2. Web UI自动化方案,本质是模拟鼠标和键盘操作来达到自动化发布的效果,对系统来说,Web UI自动化与人的操作无区别,所有理论来说,这个方案是稳定,最终用的是这个方案。具体来说,采用pyhton selenium方案来实现,开发调试过程中也躺了一些坑,如微头条的文本输入未选中和选中两个状态下html element names是不一样的,这样选中前onClick是一个element,选中后输入文本是另一个element。


四、后记

  1. 整套程序做的是疫情数据表格自动化通报,也可以普适到各种自动化发布自媒体的场景。
  2. 这是一个不错的练手项目,如同整体方案流程图,整套代码流程和逻辑是比较清晰的,有一定python或开发基础的同学都可以hold的住,如需源代码,可以“橙狮科技”微信公众号或同名头条号私信获取。
  3. 目前自动发布是前台打开浏览器操作实现的,后续会做到整个过程在后台实现,这样降低对运行环境依赖,适应性会更高一些。


  1. 若有收获,就点个赞吧