整合营销服务商

电脑端+手机端+微信端=数据同步管理

免费咨询热线:

Gucci创始人后裔指控继父从她6岁起持续性侵…亲妈外婆都知情,却让她闭嘴

信的规则进行了调整

希望大家看完故事多点“在看”,喜欢的话也点个分享

这样事儿君的推送才能继续出现在你的订阅列表里

才能继续跟大家分享每个开怀大笑或拍案惊奇的好故事啦~

说到Gucci,我们总会联想到成功,奢华,光鲜亮丽。

但跟品牌带给我们的感觉不同,创造这个品牌的Gucci家族的历史中,却充满了各种撕逼和黑暗。

之前,作家Sara Gay Forden就针对他们家族写过一本书:《The House of Gucci》,下面一行小字标注了这本书的主要内容:一个关于谋杀,疯狂,魅力,贪婪的故事。

逃税,通奸,父子结仇,股权争夺,买凶杀人,儿子把81岁的父亲送进大牢…

剧情简直比电视剧还夸张。

虽然Gucci家族第三代掌门人把股份全部出售后,现在Gucci品牌已经属于法国开云集团,跟Gucci家族没啥关系了。

但因为这个全球知名的姓氏,他们家族的事,还是会受到全球关注。

最近,Gucci创始人的外曾孙女又把自己的继父,亲妈,亲外婆告上了法庭——

她控诉从自己6岁开始,继父便开始猥亵自己,亲妈和外婆都知道很多年了,不但不帮她,还威胁她不要说出去。

她叫Alexandra Zarini,今年35岁,是Gucci创始人Guccio Gucci的外曾孙女,外公是Gucci第二代掌门人Aldo Gucci。

9月9日,Alexandra在自己的儿童基金会网站上发布一则视频,公开了小时候噩梦般的遭遇。

Alexandra的妈妈Patricia Gucci结过两次婚,Alexandra来自她第一段婚姻。

第一次婚姻失败后,Patricia认识了美国音乐人Joseph Ruffalo,两人相恋后没多久,Patricia便带着女儿搬到了加州跟他一起生活。

(Alexandra的妈妈和继父)

对妈妈来说,她也许以为找到了人生第二春,

但对Alexandra来说,一个恶魔正在向她靠近。

她说自己有时候晚上做噩梦,太害怕,就爬上妈妈的床跟她一起睡,但等她醒来,她会发现继父光着身体躺在旁边,她的小手正放在继父的隐私部位上。

当Alexandra慢慢长大后,继父恶心的行为也逐渐升级。

他会经常爬上她的床,摸她的私处,在她面前露出他的XX,用他的XX摩擦她的身体。

Alexandra表示,继父会在她面前脱掉浴袍,一丝不挂的爬上她的床,把手伸进她衣服里面摸她的胸部。还试图用手指性侵她。

她因为恐惧,全身都会僵硬。

等Alexandra到了青春期,继父的性骚扰也没有停下来。

中间Alexandra曾去英国读寄宿学校,后来,又在妈妈的要求下返回加州,继续回到继父的魔爪之下,继父继续性侵她,还“鼓励”她使用毒品。

从6岁开始,继父对她的新侵一直持续到她22岁。

而这一切,Alexandra说,她母亲和外婆都是知道的。

在她16岁时,她外婆曾问她,继父是不是有猥亵她。

Alexandra回答:“是的”,

而外婆的反应是让Alexandra不要跟任何人说,一定要死死守住这个秘密。

她的母亲也默许继父的兽性,并且允许他偷拍女儿洗澡的画面。

Alexandra还说,妈妈有时候会打她,甚至试图掐死她,这时候,继父就会以一个“保护者”的形象出现,把她“救下来”,然后趁机乱摸她。

Alexandra 20多岁的时候,曾第一次跟妈妈提到要公开自己被性侵的事情。

当时妈妈用了最严厉的话来制止她。

“这是丑闻,会给家族蒙羞。”

“你会上法庭,被拷问,你不能找到好工作,你一辈子都会被钉在耻辱柱上。”

“这件事会玷污我们的名声。”

”而且,你还有毒瘾,没有人会相信你。“

被继父性侵成了Alexandra心里最深的秘密,她很痛苦,却无法找到发泄口。

她不知道该怎么办,为了不再一遍一遍想起那些恶心的经历,Alexandra甚至一度误入歧途,开始借助毒品来麻痹自己。

幸好,她最后还是清醒了。

进入戒毒中心戒毒,一步步脱离家族实现财务独立,并且找到了三观一致的丈夫。

4年前,她生下了她的第一个孩子。

当了妈妈后,Alexandra对儿童被性侵的问题更加敏感。

后来,她听说,继父在洛杉矶一家儿童医院当志愿者。

这让她顿时汗毛倒立,她怕继父对其他孩子下手,于是决定不再隐藏,站出来揭发他!

他向加州比佛利山庄警察局报警,正式发起对继父,亲妈,以及外婆的指控。

她说,就在她下决心要公开指控他们前,她妈和她外婆还在威胁她。

她们说,如果她真的那么做,就把她逐出Gucci家族,不再认她,遗产继承也没有她的份,家里的人,没有人会再回跟她说话。

但Alexandra表示,她都不在意了。

她不在乎钱,也不在乎名,她只想要阻止这一切,不想这种事再发生在其他孩子身上。

她感觉自己有责任站出来,让那些伤害儿童的人得到应有的惩罚。

目前,警方的调查还在进行中。

针对Alexandra的指控,媒体也去联系了她妈和她继父。

她妈Patricia Gucci说,

“对于Joseph Ruffalo 给Alexandra造成的伤痛,我感觉极其难过。

他的行为没有任何借口,当女儿2007年在我们家庭医生面前跟我说了这一切后,我也非常震惊痛苦。

我得知后,立马跟Joseph Ruffalo开始办离婚手续。然后和我的家人一起通过心理咨询来疗伤。

对于Alexandra针对我和她外婆的指控,我也非常震惊,这完全都是假的。”

Alexandra的继父通过律师回应说,他目前没有在任何儿童医院当志愿者,Alexandra对她的性侵指控,他也坚决否认。

他还说,当初他和Alexandra母亲结婚后,就很担心Alexandra的精神健康,还曾试图用各种方法来缓解她情绪不稳定的问题。

“但很明显,这些努力都失败了。”

虽然目前调查结果还没出来,不过,看了各方的说法,网友们大多都站在Alexandra这边:

“可怜的女人,我完全相信她。她的话很可信。”

“这个女人太棒了。她没有藏起来,当个受害者,相反,她选择拿出自己的伤痛来帮助别人。她本不需要做这些,但她知道,只有把谎言,恶行,威胁暴露在阳光下才能杀死它们。我为她祈祷,希望她内心能愈合,也为她的勇气鼓掌。”

“想象一下,一个小女孩,被一个魔鬼伤害,而她知道,自己的家人一直在允许这种伤害发生,她该有多么无助… 把他们统统曝光。这是无法接受的,他们才是耻辱。这种事不能再发生了。”

“我完全相信这个女孩,她妈和她外婆真够可耻的。这是跟发生在我妈身上的事非常相似,区别只是,性侵她的,是她的亲生父亲。当我妈终于有勇气向我外婆的姐姐说出这一切后,她把这事告诉了我外婆,我外婆骂我妈’荡妇’。我是几年后才知道这事的,我也终于知道为什么我妈成了他们家的’不孝子’。我完全相信我妈,她妈和她爸一样坏!”

https://www.dailymail.co.uk/news/article-8717611/Gucci-heiress-claims-family-covered-decades-sexual-abuse.html#comments

https://www.nytimes.com/2020/09/09/style/gucci-family-lawsuit.html?smtyp=cur&smid=tw-nytimesbusiness

--------------------

流月城大祭司沈不悔:名利使人六亲不认,诶

weiweiyy-:自己的家人一直允许这种伤害发生 这女主该多无助和绝望。

游嬷嬷Umm:Gucci家族真的很

尼桑顶呱呱:历史一次又一次地告诉人们,父母不一定会站在孩子那一边

明月星寂

:天呐富贵人家也是逃不过

生产队长牛翠芳:这一家人都是魔鬼吧

读:听说你写Python代码没动力?本文就给你动力,爬取妹子图。如果这也没动力那就没救了。

GitHub 地址: 
https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py

01 爬虫成果

当你运行代码后,文件夹就会越来越多,如果爬完的话会有2000多个文件夹,20000多张图片。不过会很耗时间,可以在最后的代码设置爬取页码范围。

02 本文目标

  1. 熟悉 Requests 库,Beautiful Soup 库
  2. 熟悉多线程爬取
  3. 送福利,妹子图

03 网站结构

我们从 http://meizitu.com/a/more_1.html 这个链接进去,界面如下图所示:

可以看到是一组一组的套图,点击任何一组图片会进入到详情界面,如下图所示:

可以看到图片是依次排开的,一般会有十张左右的图片

04 实现思路

看了界面的结构,那么我们的思路就有了。

  1. 构造 url 链接,去请求图一所示的套图列表界面,拿到每一个页面中的套图列表。
  2. 分别进入每个套图中去,下载相应的图片。

05 代码说明

1. 下载界面的函数,利用 Requests 很方便实现

def download_page(url):
 '''
 用于下载页面
 '''
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 r = requests.get(url, headers=headers)
 r.encoding = 'gb2312'
 return r.text

2. 获取图一所示的所有套图列表,函数中 link 表示套图的链接,text表示套图的名字。

def get_pic_list(html):
 '''
 获取每个页面的套图列表,之后循环调用get_pic函数获取图片
 '''
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find_all('li', class_='wp-item')
 for i in pic_list:
 a_tag = i.find('h3', class_='tit').find('a')
 link = a_tag.get('href') # 套图链接
 text = a_tag.get_text() # 套图名字
 get_pic(link, text)

3. 传入上一步中获取到的套图链接及套图名字,获取每组套图里面的图片,并保存,我在代码中注释了。

def get_pic(link, text):
 '''
 获取当前页面的图片,并保存
 '''
 html = download_page(link) # 下载界面
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 create_dir('pic/{}'.format(text))
 for i in pic_list:
 pic_link = i.get('src') # 拿到图片的具体 url
 r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件
 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f:
 f.write(r.content)
 time.sleep(1)

06 完整代码

完整代码如下,包括了创建文件夹,利用多线程爬取,我设置的是5个线程,可以根据自己机器自己来设置一下。

import requests
import os
import time
import threading
from bs4 import BeautifulSoup
def download_page(url):
 '''
 用于下载页面
 '''
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 r = requests.get(url, headers=headers)
 r.encoding = 'gb2312'
 return r.text
def get_pic_list(html):
 '''
 获取每个页面的套图列表,之后循环调用get_pic函数获取图片
 '''
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find_all('li', class_='wp-item')
 for i in pic_list:
 a_tag = i.find('h3', class_='tit').find('a')
 link = a_tag.get('href')
 text = a_tag.get_text()
 get_pic(link, text)
def get_pic(link, text):
 '''
 获取当前页面的图片,并保存
 '''
 html = download_page(link) # 下载界面
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 create_dir('pic/{}'.format(text))
 for i in pic_list:
 pic_link = i.get('src') # 拿到图片的具体 url
 r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件
 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f:
 f.write(r.content)
 time.sleep(1) # 休息一下,不要给网站太大压力,避免被封
def create_dir(name):
 if not os.path.exists(name):
 os.makedirs(name)
def execute(url):
 page_html = download_page(url)
 get_pic_list(page_html)
def main():
 create_dir('pic')
 queue = [i for i in range(1, 72)] # 构造 url 链接 页码。
 threads = []
 while len(queue) > 0:
 for thread in threads:
 if not thread.is_alive():
 threads.remove(thread)
 while len(threads) < 5 and len(queue) > 0: # 最大线程数设置为 5
 cur_page = queue.pop(0)
 url = 'http://meizitu.com/a/more_{}.html'.format(cur_page)
 thread = threading.Thread(target=execute, args=(url,))
 thread.setDaemon(True)
 thread.start()
 print('{}正在下载{}页'.format(threading.current_thread().name, cur_page))
 threads.append(thread)
if __name__ == '__main__':
 main()

好了,之后运行,我们的爬虫就会孜孜不倦的为我们下载漂亮妹子啦。

说你写代码没动力?本文就给你动力,爬取妹子图。如果这也没动力那就没救了。

GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py

爬虫成果

当你运行代码后,文件夹就会越来越多,如果爬完的话会有2000多个文件夹,20000多张图片。不过会很耗时间,可以在最后的代码设置爬取页码范围。

本文目标

  1. 熟悉 Requests 库,Beautiful Soup 库
  2. 熟悉多线程爬取
  3. 送福利,妹子图

网站结构

我们从 http://meizitu.com/a/more_1.html 这个链接进去,界面如图一所示

图一:

可以看到是一组一组的套图,点击任何一组图片会进入到详情界面,如图二所示

图二:

可以看到图片是依次排开的,一般会有十张左右的图片。

实现思路

看了界面的结构,那么我们的思路就有了。

  1. 构造 url 链接,去请求图一所示的套图列表界面,拿到每一个页面中的套图列表。
  2. 分别进入每个套图中去,下载相应的图片。

代码说明

  1. 下载界面的函数,利用 Requests 很方便实现。
def download_page(url):
 '''
 用于下载页面
 '''
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 r = requests.get(url, headers=headers)
 r.encoding = 'gb2312'
 return r.text
  1. 获取图一所示的所有套图列表,函数中 link 表示套图的链接,text表示套图的名字

def get_pic_list(html):

'''

获取每个页面的套图列表,之后循环调用get_pic函数获取图片

'''

soup = BeautifulSoup(html, 'html.parser')

pic_list = soup.find_all('li', class_='wp-item')

for i in pic_list:

a_tag = i.find('h3', class_='tit').find('a')

link = a_tag.get('href') # 套图链接

text = a_tag.get_text() # 套图名字

get_pic(link, text)

  1. 传入上一步中获取到的套图链接及套图名字,获取每组套图里面的图片,并保存,我在代码中注释了。
def get_pic(link, text):
 '''
 获取当前页面的图片,并保存
 '''
 html = download_page(link) # 下载界面
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 create_dir('pic/{}'.format(text))
 for i in pic_list:
 pic_link = i.get('src') # 拿到图片的具体 url
 r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件
 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f:
 f.write(r.content)
 time.sleep(1)

完整代码

完整代码如下,包括了创建文件夹,利用多线程爬取,我设置的是5个线程,可以根据自己机器自己来设置一下。

import requests
import os
import time
import threading
from bs4 import BeautifulSoup
def download_page(url):
 '''
 用于下载页面
 '''
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 r = requests.get(url, headers=headers)
 r.encoding = 'gb2312'
 return r.text
def get_pic_list(html):
 '''
 获取每个页面的套图列表,之后循环调用get_pic函数获取图片
 '''
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find_all('li', class_='wp-item')
 for i in pic_list:
 a_tag = i.find('h3', class_='tit').find('a')
 link = a_tag.get('href')
 text = a_tag.get_text()
 get_pic(link, text)
def get_pic(link, text):
 '''
 获取当前页面的图片,并保存
 '''
 html = download_page(link) # 下载界面
 soup = BeautifulSoup(html, 'html.parser')
 pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有图片
 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
 create_dir('pic/{}'.format(text))
 for i in pic_list:
 pic_link = i.get('src') # 拿到图片的具体 url
 r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件
 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f:
 f.write(r.content)
 time.sleep(1) # 休息一下,不要给网站太大压力,避免被封
def create_dir(name):
 if not os.path.exists(name):
 os.makedirs(name)
def execute(url):
 page_html = download_page(url)
 get_pic_list(page_html)
def main():
 create_dir('pic')
 queue = [i for i in range(1, 72)] # 构造 url 链接 页码。
 threads = []
 while len(queue) > 0:
 for thread in threads:
 if not thread.is_alive():
 threads.remove(thread)
 while len(threads) < 5 and len(queue) > 0: # 最大线程数设置为 5
 cur_page = queue.pop(0)
 url = 'http://meizitu.com/a/more_{}.html'.format(cur_page)
 thread = threading.Thread(target=execute, args=(url,))
 thread.setDaemon(True)
 thread.start()
 print('{}正在下载{}页'.format(threading.current_thread().name, cur_page))
 threads.append(thread)
if __name__ == '__main__':
 main()

好了,之后运行,我们的爬虫就会孜孜不倦的为我们下载漂亮妹子啦。