整合营销服务商

电脑端+手机端+微信端=数据同步管理

免费咨询热线:

MySQL查询数据库表记录数

MySQL查询数据库表记录数

ysql统计一个数据库里所有表的数据量,最近在做统计想查找一个数据库里基本所有的表数据量,数据量少的通过select count再加起来也是可以的,不过表的数据有点多,不可能一个一个地查。记得在Navicat里,选择一个数据量,点击表,如图:

那么如何通过sql实现呢?在mysql里是可以查询information_schema.tables这张表的

SELECT table_rows,table_name FROM information_schema.tables  
WHERE TABLE_SCHEMA='数据库名称'
and table_name not in ('不查询的表名称') 
ORDER BY table_rows DESC;

OK,本来还以为已经没问题了,然后还是被反馈统计不对,后来去找了资料说是对于MyISAM才是正确的统计数据,但是对于InnoDB引擎的,可能与实际值相差 40% 到 50%,所以只是一个大概的统计所以针对这种情况,要更改存储引擎,肯定是不太合适,因为InnoDB是默认的存储引擎,能支持事务外健,并发情况性能也比较好。继续找资料,正确的sql如下:

select
table_schema as '数据库',
table_name as '表名',
table_rows as '记录数',
truncate(data_length/1024/1024, 2) as '数据容量(MB)',
truncate(index_length/1024/1024, 2) as '索引容量(MB)'
from information_schema.tables
where table_schema='test'
order by table_rows desc, index_length desc;

查询结果如下:

如若转载,请注明出处:开源字节 https://sourcebyte.cn/article/240.html

否还在使用正则表达式处理文本呢?其实AI可以帮助你更轻松地完成任务。今天我将与大家分享如何使用claude Al从HTML中提取数据。首先,我们需要进行两个阶段的处理:第一步是采集原始数据,即下拉列表中的选项。第二步是使用AI处理数据。

首先,我们需要选择下拉列表中的元素,也就是options。但是,由于该下拉列表是由JS控制的,如果我们点击其他地方,它会缩回去。因此,如果我们再次点击“检查元素”,它就会缩回去。

为了解决这个问题,我们需要观察该下拉列表的动态行为。我们可以发现,它位于这一行中。此时,我们可以使用一个小技巧,右键复制元素,将其复制到剪贴板中。我们可以看到,刚才的options内容已经被复制到剪贴板中。现在,我们可以查看刚才的输出。这是原始数据采集的过程。

采集到数据后,我们需要登录claude Al,然后将其粘贴到文本中,它将自动转换为一个TXT文件。然后,我们可以输入“help me actrac info from the following text”的指令,它将自动执行一段Python代码,帮助我们处理数据。

它将自动生成一段代码,让我们自己处理数据。此时,我们可以告诉它“can you print the output for me”。我们只需要告诉它需要在哪个标签中提取数据即可。此时,它将执行其中的代码,并输出所需的数据。输出结果将显示为“我”。

此外,我们还可以使用其他数据来执行其他操作,这非常简单。

当然,这只是一个示例。您可能需要处理的不是HTML、XML或其他结构化或半结构化文本。在这种情况下,您可以直接将这些任务交给AI,让AI帮助您完成这些任务,从而使您更加轻松。因此,这是一个非常简单的技巧,希望您能学会。

用BeautifulSoup库解析 HTML 或 XML 数据可以按照以下步骤进行:

首先,确保你已经安装了BeautifulSoup库。可以使用pip命令进行安装:pip install beautifulsoup4。

导入BeautifulSoup库和相关的解析库,通常是html.parser或其他适合的解析器。

使用BeautifulSoup的parse方法将 HTML 或 XML 数据解析为一个BeautifulSoup对象。

通过find或find_all等方法在BeautifulSoup对象中查找特定的标签或属性。

对找到的元素进行进一步的操作,例如提取文本、获取属性值等。

下面是一个简单的示例,演示如何使用BeautifulSoup解析 HTML 数据:

收起

python

from bs4 import BeautifulSoup

html_data='''

The Dormouse's story

Once upon a time there were three little sisters; and their names were

Elsie,

Lacie and

Tillie;

and they lived at the bottom of a well.

'''

# 解析 HTML 数据

soup=BeautifulSoup(html_data, 'html.parser')

# 查找所有包含"sister"类的链接

sister_links=soup.find_all('a', class_='sister')

# 打印链接的文本和链接地址

for link in sister_links:

print(link.text, link.get('href'))

在上述示例中,首先定义了一段 HTML 数据。然后,使用BeautifulSoup的parse方法将 HTML 数据解析为一个soup对象。接下来,使用find_all方法查找所有具有sister类的链接,并将它们存储在sister_links列表中。最后,通过遍历sister_links列表,打印每个链接的文本和链接地址。