信的规则进行了调整
希望大家看完故事多点“在看”,喜欢的话也点个分享和赞
这样事儿君的推送才能继续出现在你的订阅列表里
才能继续跟大家分享每个开怀大笑或拍案惊奇的好故事啦~
说到Gucci,我们总会联想到成功,奢华,光鲜亮丽。
但跟品牌带给我们的感觉不同,创造这个品牌的Gucci家族的历史中,却充满了各种撕逼和黑暗。
之前,作家Sara Gay Forden就针对他们家族写过一本书:《The House of Gucci》,下面一行小字标注了这本书的主要内容:一个关于谋杀,疯狂,魅力,贪婪的故事。
逃税,通奸,父子结仇,股权争夺,买凶杀人,儿子把81岁的父亲送进大牢…
剧情简直比电视剧还夸张。
虽然Gucci家族第三代掌门人把股份全部出售后,现在Gucci品牌已经属于法国开云集团,跟Gucci家族没啥关系了。
但因为这个全球知名的姓氏,他们家族的事,还是会受到全球关注。
最近,Gucci创始人的外曾孙女又把自己的继父,亲妈,亲外婆告上了法庭——
她控诉从自己6岁开始,继父便开始猥亵自己,亲妈和外婆都知道很多年了,不但不帮她,还威胁她不要说出去。
她叫Alexandra Zarini,今年35岁,是Gucci创始人Guccio Gucci的外曾孙女,外公是Gucci第二代掌门人Aldo Gucci。
9月9日,Alexandra在自己的儿童基金会网站上发布一则视频,公开了小时候噩梦般的遭遇。
Alexandra的妈妈Patricia Gucci结过两次婚,Alexandra来自她第一段婚姻。
第一次婚姻失败后,Patricia认识了美国音乐人Joseph Ruffalo,两人相恋后没多久,Patricia便带着女儿搬到了加州跟他一起生活。
(Alexandra的妈妈和继父)
对妈妈来说,她也许以为找到了人生第二春,
但对Alexandra来说,一个恶魔正在向她靠近。
她说自己有时候晚上做噩梦,太害怕,就爬上妈妈的床跟她一起睡,但等她醒来,她会发现继父光着身体躺在旁边,她的小手正放在继父的隐私部位上。
当Alexandra慢慢长大后,继父恶心的行为也逐渐升级。
他会经常爬上她的床,摸她的私处,在她面前露出他的XX,用他的XX摩擦她的身体。
Alexandra表示,继父会在她面前脱掉浴袍,一丝不挂的爬上她的床,把手伸进她衣服里面摸她的胸部。还试图用手指性侵她。
她因为恐惧,全身都会僵硬。
等Alexandra到了青春期,继父的性骚扰也没有停下来。
中间Alexandra曾去英国读寄宿学校,后来,又在妈妈的要求下返回加州,继续回到继父的魔爪之下,继父继续性侵她,还“鼓励”她使用毒品。
从6岁开始,继父对她的新侵一直持续到她22岁。
而这一切,Alexandra说,她母亲和外婆都是知道的。
在她16岁时,她外婆曾问她,继父是不是有猥亵她。
Alexandra回答:“是的”,
而外婆的反应是让Alexandra不要跟任何人说,一定要死死守住这个秘密。
她的母亲也默许继父的兽性,并且允许他偷拍女儿洗澡的画面。
Alexandra还说,妈妈有时候会打她,甚至试图掐死她,这时候,继父就会以一个“保护者”的形象出现,把她“救下来”,然后趁机乱摸她。
Alexandra 20多岁的时候,曾第一次跟妈妈提到要公开自己被性侵的事情。
当时妈妈用了最严厉的话来制止她。
“这是丑闻,会给家族蒙羞。”
“你会上法庭,被拷问,你不能找到好工作,你一辈子都会被钉在耻辱柱上。”
“这件事会玷污我们的名声。”
”而且,你还有毒瘾,没有人会相信你。“
被继父性侵成了Alexandra心里最深的秘密,她很痛苦,却无法找到发泄口。
她不知道该怎么办,为了不再一遍一遍想起那些恶心的经历,Alexandra甚至一度误入歧途,开始借助毒品来麻痹自己。
幸好,她最后还是清醒了。
进入戒毒中心戒毒,一步步脱离家族实现财务独立,并且找到了三观一致的丈夫。
4年前,她生下了她的第一个孩子。
当了妈妈后,Alexandra对儿童被性侵的问题更加敏感。
后来,她听说,继父在洛杉矶一家儿童医院当志愿者。
这让她顿时汗毛倒立,她怕继父对其他孩子下手,于是决定不再隐藏,站出来揭发他!
他向加州比佛利山庄警察局报警,正式发起对继父,亲妈,以及外婆的指控。
她说,就在她下决心要公开指控他们前,她妈和她外婆还在威胁她。
她们说,如果她真的那么做,就把她逐出Gucci家族,不再认她,遗产继承也没有她的份,家里的人,没有人会再回跟她说话。
但Alexandra表示,她都不在意了。
她不在乎钱,也不在乎名,她只想要阻止这一切,不想这种事再发生在其他孩子身上。
她感觉自己有责任站出来,让那些伤害儿童的人得到应有的惩罚。
目前,警方的调查还在进行中。
针对Alexandra的指控,媒体也去联系了她妈和她继父。
她妈Patricia Gucci说,
“对于Joseph Ruffalo 给Alexandra造成的伤痛,我感觉极其难过。
他的行为没有任何借口,当女儿2007年在我们家庭医生面前跟我说了这一切后,我也非常震惊痛苦。
我得知后,立马跟Joseph Ruffalo开始办离婚手续。然后和我的家人一起通过心理咨询来疗伤。
对于Alexandra针对我和她外婆的指控,我也非常震惊,这完全都是假的。”
Alexandra的继父通过律师回应说,他目前没有在任何儿童医院当志愿者,Alexandra对她的性侵指控,他也坚决否认。
他还说,当初他和Alexandra母亲结婚后,就很担心Alexandra的精神健康,还曾试图用各种方法来缓解她情绪不稳定的问题。
“但很明显,这些努力都失败了。”
虽然目前调查结果还没出来,不过,看了各方的说法,网友们大多都站在Alexandra这边:
“可怜的女人,我完全相信她。她的话很可信。”
“这个女人太棒了。她没有藏起来,当个受害者,相反,她选择拿出自己的伤痛来帮助别人。她本不需要做这些,但她知道,只有把谎言,恶行,威胁暴露在阳光下才能杀死它们。我为她祈祷,希望她内心能愈合,也为她的勇气鼓掌。”
“想象一下,一个小女孩,被一个魔鬼伤害,而她知道,自己的家人一直在允许这种伤害发生,她该有多么无助… 把他们统统曝光。这是无法接受的,他们才是耻辱。这种事不能再发生了。”
“我完全相信这个女孩,她妈和她外婆真够可耻的。这是跟发生在我妈身上的事非常相似,区别只是,性侵她的,是她的亲生父亲。当我妈终于有勇气向我外婆的姐姐说出这一切后,她把这事告诉了我外婆,我外婆骂我妈’荡妇’。我是几年后才知道这事的,我也终于知道为什么我妈成了他们家的’不孝子’。我完全相信我妈,她妈和她爸一样坏!”
https://www.dailymail.co.uk/news/article-8717611/Gucci-heiress-claims-family-covered-decades-sexual-abuse.html#comments
https://www.nytimes.com/2020/09/09/style/gucci-family-lawsuit.html?smtyp=cur&smid=tw-nytimesbusiness
--------------------
流月城大祭司沈不悔:名利使人六亲不认,诶
weiweiyy-:自己的家人一直允许这种伤害发生 这女主该多无助和绝望。
游嬷嬷Umm:Gucci家族真的很
尼桑顶呱呱:历史一次又一次地告诉人们,父母不一定会站在孩子那一边
明月星寂
:天呐富贵人家也是逃不过
生产队长牛翠芳:这一家人都是魔鬼吧
读:听说你写Python代码没动力?本文就给你动力,爬取妹子图。如果这也没动力那就没救了。
GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
当你运行代码后,文件夹就会越来越多,如果爬完的话会有2000多个文件夹,20000多张图片。不过会很耗时间,可以在最后的代码设置爬取页码范围。
我们从 http://meizitu.com/a/more_1.html 这个链接进去,界面如下图所示:
可以看到是一组一组的套图,点击任何一组图片会进入到详情界面,如下图所示:
可以看到图片是依次排开的,一般会有十张左右的图片
看了界面的结构,那么我们的思路就有了。
1. 下载界面的函数,利用 Requests 很方便实现
def download_page(url): ''' 用于下载页面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text
2. 获取图一所示的所有套图列表,函数中 link 表示套图的链接,text表示套图的名字。
def get_pic_list(html): ''' 获取每个页面的套图列表,之后循环调用get_pic函数获取图片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') # 套图链接 text = a_tag.get_text() # 套图名字 get_pic(link, text)
3. 传入上一步中获取到的套图链接及套图名字,获取每组套图里面的图片,并保存,我在代码中注释了。
def get_pic(link, text): ''' 获取当前页面的图片,并保存 ''' html = download_page(link) # 下载界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到图片的具体 url r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1)
完整代码如下,包括了创建文件夹,利用多线程爬取,我设置的是5个线程,可以根据自己机器自己来设置一下。
import requests import os import time import threading from bs4 import BeautifulSoup def download_page(url): ''' 用于下载页面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text def get_pic_list(html): ''' 获取每个页面的套图列表,之后循环调用get_pic函数获取图片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') text = a_tag.get_text() get_pic(link, text) def get_pic(link, text): ''' 获取当前页面的图片,并保存 ''' html = download_page(link) # 下载界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到图片的具体 url r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1) # 休息一下,不要给网站太大压力,避免被封 def create_dir(name): if not os.path.exists(name): os.makedirs(name) def execute(url): page_html = download_page(url) get_pic_list(page_html) def main(): create_dir('pic') queue = [i for i in range(1, 72)] # 构造 url 链接 页码。 threads = [] while len(queue) > 0: for thread in threads: if not thread.is_alive(): threads.remove(thread) while len(threads) < 5 and len(queue) > 0: # 最大线程数设置为 5 cur_page = queue.pop(0) url = 'http://meizitu.com/a/more_{}.html'.format(cur_page) thread = threading.Thread(target=execute, args=(url,)) thread.setDaemon(True) thread.start() print('{}正在下载{}页'.format(threading.current_thread().name, cur_page)) threads.append(thread) if __name__ == '__main__': main()
好了,之后运行,我们的爬虫就会孜孜不倦的为我们下载漂亮妹子啦。
说你写代码没动力?本文就给你动力,爬取妹子图。如果这也没动力那就没救了。
GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
爬虫成果
当你运行代码后,文件夹就会越来越多,如果爬完的话会有2000多个文件夹,20000多张图片。不过会很耗时间,可以在最后的代码设置爬取页码范围。
本文目标
网站结构
我们从 http://meizitu.com/a/more_1.html 这个链接进去,界面如图一所示
图一:
可以看到是一组一组的套图,点击任何一组图片会进入到详情界面,如图二所示
图二:
可以看到图片是依次排开的,一般会有十张左右的图片。
实现思路
看了界面的结构,那么我们的思路就有了。
代码说明
def download_page(url): ''' 用于下载页面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text
def get_pic_list(html):
'''
获取每个页面的套图列表,之后循环调用get_pic函数获取图片
'''
soup = BeautifulSoup(html, 'html.parser')
pic_list = soup.find_all('li', class_='wp-item')
for i in pic_list:
a_tag = i.find('h3', class_='tit').find('a')
link = a_tag.get('href') # 套图链接
text = a_tag.get_text() # 套图名字
get_pic(link, text)
def get_pic(link, text): ''' 获取当前页面的图片,并保存 ''' html = download_page(link) # 下载界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到图片的具体 url r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1)
完整代码
完整代码如下,包括了创建文件夹,利用多线程爬取,我设置的是5个线程,可以根据自己机器自己来设置一下。
import requests import os import time import threading from bs4 import BeautifulSoup def download_page(url): ''' 用于下载页面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text def get_pic_list(html): ''' 获取每个页面的套图列表,之后循环调用get_pic函数获取图片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') text = a_tag.get_text() get_pic(link, text) def get_pic(link, text): ''' 获取当前页面的图片,并保存 ''' html = download_page(link) # 下载界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到图片的具体 url r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1) # 休息一下,不要给网站太大压力,避免被封 def create_dir(name): if not os.path.exists(name): os.makedirs(name) def execute(url): page_html = download_page(url) get_pic_list(page_html) def main(): create_dir('pic') queue = [i for i in range(1, 72)] # 构造 url 链接 页码。 threads = [] while len(queue) > 0: for thread in threads: if not thread.is_alive(): threads.remove(thread) while len(threads) < 5 and len(queue) > 0: # 最大线程数设置为 5 cur_page = queue.pop(0) url = 'http://meizitu.com/a/more_{}.html'.format(cur_page) thread = threading.Thread(target=execute, args=(url,)) thread.setDaemon(True) thread.start() print('{}正在下载{}页'.format(threading.current_thread().name, cur_page)) threads.append(thread) if __name__ == '__main__': main()
好了,之后运行,我们的爬虫就会孜孜不倦的为我们下载漂亮妹子啦。
*请认真填写需求信息,我们会在24小时内与您取得联系。