者 | 凌敏、核子可乐
AI 时代即将翻开新的篇章。
随着ChatGPT火爆全球,越来越多的同类型大型语言模型同台竞技。不过,这些大型语言模型的训练成本并不低。据国盛证券报告《ChatGPT 需要多少算力》估算,GPT-3 训练一次的成本约为 140 万美元,对于一些更大的 LLM,训练成本介于 200 万美元至 1200 万美元之间。
以 ChatGPT 在 1 月的独立访客平均数 1300 万计算,其对应芯片需求为 3 万多片英伟达 A100 GPU,初始投入成本约为 8 亿美元,每日电费在 5 万美元左右。如果将当前的 ChatGPT 部署到谷歌进行的每次搜索中,需要 512820.51 台 A100 HGX 服务器和总共 4102568 个 A100 GPU,这些服务器和网络的总成本仅资本支出就超过 1000 亿美元。
既然需要服务器支持的 LLM 训练成本这么高,那有没有可能让 LLM 只在浏览器内运行,降低训练成本?
Django 的共同创始人 Simon Wilison 提出这样的假设:能不能用 8.5 万美元训练出能压倒 ChatGPT 的模型,同时要求它可以纯在浏览器内运行?这里的 8.5 万美元,就是 LLaMA 7B 加上 Stanford Alpaca 的训练成本。而所谓“在浏览器内运行”,则是考虑到 1.9 GB 大小的 Stable Diffusion 模型确实能够单靠浏览器跑起来。既然有成功的先例,那至少用浏览器运行小语言模型并不是太大的问题。
如今看来,这个假设已然成真,新的篇章已经翻开。
Web LLM 是一个将大型语言模型和基于 LLM 的聊天机器人引入 Web 浏览器的项目,希望通过 Chrome 测试版中刚刚发布的全新 WebGPU API,在浏览器内运行 vicuna-7b-delta-v0 模型。该项目最大的亮点是,一切都在浏览器内运行,无需服务器支持,并使用 WebGPU 加速。
Simon Willison 在 M2 MacBook Pro 上测试 Chrome Canary 演示版本,而且完全按照谷歌建议的选项操作,最终发现该模型的效果确实非常好:
/Applications/Google\ Chrome\ Canary.app/Contents/MacOS/Google\ Chrome\ Canary --enable-dawn-features=disable_robustness
首先,Web LLM 的处理速度非常快,每秒大概能够处理 15 个 token。在测试环节,Willison 先从最简单的问题起步,查询客观事实。比如“谁登上过月球?”
接下来,Willison 开始询问一些更困难的问题,比如“用 markdown 格式列出雪儿的五张专辑”。
Web LLM 还答做对了,这对大语言模型来说绝非易事。另外,它甚至很明白 markdown 格式是怎么回事。
但这里的www.cherproject.com域名是假的,纯属捏造。其中两张专辑的名称也有问题:“Cher’s Gold”应该是“Cher’s Golden Greats”。而且虽然雪儿确实是 Geffen Records 的签约艺人,但我完全找不到“Greatest Hits: Geffen Years”这张专辑存在的证据。
但从好的方面看,Willison 压根没想到它能完成这条提示。所以哪怕给出的答案只是部分正确,仍然给 Willison 留下了深刻印象。
接下来,Willison 想看看它认不认识自己。“Simon Willison 是谁?”
它的回答是“某人:花生是谁?”这个回答只能得零分。
那总结能力如何呢?Willison 从最近的博客文章中随机复制了一些文本段落,要求它“总结这些内容:粘贴出来”。
它做得也非常非常棒!
到这里,Willison 表示自己开始兴奋起来了。其实 Willison 并不指望本地运行的大语言模型能准确回答那么多关于客观事实的问题,这毕竟不是它的长项。Willison 真正想要的是一个单词核算器,想要一套模型,能够将内容输入其中并自动执行各种操作——总结、事实提取、据此为提示给出回答等等。
而从 Web LLM 加上 vicuna-7b-delta-v0 的文本总结能力来看,它似乎已经达到了 Willison 所期待的可用水平。
所以是时候启动我最喜欢的大语言模型测试了——如果几只水獭想开一家咖啡店,能不能帮忙起个意有双关的店名?
为了探探 Web LLM 的能力极限,Willison 给出了一条自认为不可能完成的提示:“创作一段鹈鹕和海獭之间的说唱 battle”。
虽然水平也不咋样,但能做到这个程度着实厉害。
那写代码行不行?Willison 试着“编写一个 JavaScript 函数,从表中提取数据并将结果以 CSV 格式记录到控制台”。
乍看之下挺唬人的,但其实根本用不了:table.headers.split(",") 跟 HTML 表在 JavaScript DOM 中的工作方式不符。
但再次强调,这是个小到能在浏览器内直接运行的模型,能有这样的表现已经很可以了。
在 Willison 看来,浏览器其实是大语言模型的绝佳归宿,因为它能提供一个安全的沙箱环境。
本质上讲,大语言模型是种颇具风险的技术。倒不是说它们可能突然觉醒过来并打算干掉人类——这纯纯是科幻小说的臆想——但仍有危险的一面。因为无论指令来自何处,它们都会无脑加以执行。一旦总结了错误的网页,攻击者就可能诱导大语言模型助手泄露关于你自己的所有私人数据、删除所有电子邮件,甚至造成更严重的后果。
这就是所谓“提示注入”,哪怕是对于个人 AI 助手,这类攻击也可能在极端状况下引发巨大的风险。
为了安全地运行个人 AI 助手,我们需要借助沙箱,在这样的隔离环境下认真控制 AI 所能使用的信息和工具。网络浏览器则是我们开发出的最为可靠的沙箱环境。
浏览器沙箱能帮助我们应对以下一系列安全挑战:
再来看看 Vicuna 模型的底层工作原理:Vicuna 是一款开源聊天机器人,训练数据来自 ShareGPT 收集的用户共享对话,并由 LLaMA 模型微调而来。
Facebook 打造的 LLaMA 仅授权用于非商业和研究目的。ShareGPT 则是人们分享自己 ChatGPT 记录的网站,也就是说这个微调模型完全建立在不符合许可条款的数据基础之上。(OpenAI 在条款中规定不得使用这些数据来训练与其竞争的语言模型。)
所以在 Vicuna 之上建立的内容将受到严格限制。
不过跟之前的 LLaMA 和 Alpaca 一样,Vicuna 最令人兴奋的地方在于它所展示出的可能性:现在,我们终于能纯在浏览器内运行一套功能强大的大语言模型。虽然对应的浏览器还仅是 beta 版,同时要求使用配置极高的笔记本电脑,但这仍然是把不可能化为了可能。
下一个值得期待的里程碑,无疑是完全开放许可的大语言模型——类似于 Dolly 2。如果它也能使用 Web LLM 演示中的同类栈完全在浏览器内运行,那么 AI 时代将翻开新的篇章。
参考链接:
https://mlc.ai/web-llm/?continueFlag=fc3a3716774c34de2354e44eababc022
https://simonwillison.net/2023/Apr/16/web-llm/
本文转载来源:
https://www.infoq.cn/news/XWIHYl4HxlTwOkYF6qhS
敏 萧箫 发自 凹非寺
量子位 | 公众号 QbitAI
“不要登录ChatGPT!”
“暂时远离人工智能和ChatGPT概念板块高位股!”
就在这两天,一些关于ChatGPT的疾呼突然在各种社交平台和群聊刷屏了。
而看到这些消息的用户更是感到前所未有的惶恐。
因为导致这些声音出现的原因是——ChatGPT正在悄无声息地大规模封号。
很多人看到消息后尝试登录,就发现自己的号已经不在了。
想要重新注册一个?没戏,官方已经暂停了注册通道,到今天上午都还没开启。
并且从3月31日开始封号到现在,OpenAI官方没有做出任何声明,具体原因不得而知。
加上最近还发生了意大利禁止使用ChatGPT、三星称因为ChatGPT泄密等事情,进一步引发了人们对于ChatGPT的担忧和疑虑。
因此各种猜测满天飞,ChatGPT概念股利空的消息也在周末刷屏。
有人为了避免被封号,开始使用各种歪点子,比如不用中文对话:
也有基金经理“绝望”表示现在跟不跟AI股下场都一样,这条票圈也在周末被疯转:
所以这到底是怎么一回事啊?
这一轮大规模封号大概从3月31日开始。
当时就有人发现OpenAI新用户注册渠道不再对注册过或已有账号的用户开放,用已有账号登录会看到提示:
注册暂时不可用,请稍后尝试。
但截至发稿前,注册通道仍旧没有被重启。
以及有人从30号晚上开始发现,付费Plus后会出现只扣款但订阅不开启的情况。
还有人的Plus本来是可以用的,却在这几天突然失灵,甚至账单里都查不到记录。
事件的进一步发酵从4月1日开始。
越来越多人表示自己的账户被封,各大平台、群聊都有人奔走相告“注意事项”以防被封。
甚至是疾呼:不要登录了!
而随着封号数量越来越多,人们发现封号似乎是无差别的,不管是充值了Plus,还是只调用API,都会有可能被封。
到目前为止OpenAI官方都没有做出说明,因此背后具体原因众说纷纭,目前主要有“批量注册”和“API调用被封”两种类型。
一方面,很多声音都认为,这次封号的重灾区,是之前批量注册的账户。
不少网友都表示自己手动注册的账号还在,但从一些渠道收入的就已经没了。
另一方面,关于API调用被封的情况,则有人猜测可能是之前的账户行为存在API滥用嫌疑。
比如一个人有多个账号获取API服务,如果被检测到在同一个IP或类似IP不停更换API发出请求,就违反了OpenAI API的使用规则。
以及4月1日是OpenAI API Key免费调用额度到期的日子,有人觉得OpenAI是担心这几天会有大批账号付费买token,API会被薅秃,所以先封一批号……
这种猜测也不是没有根据,毕竟前有Midjourney叫停免费使用,一部分就是因为被薅得太狠了。
3月28日,Midjourney的创始人兼CEO表示,由于很多人为了避免付费,注册大量新账户只使用免费额度。这加剧了GPU临时性短缺的情况,导致付费用户的服务瘫痪。
当然,除了这些关于账号本身存在问题的原因推测以外,还有人从ChatGPT的用处切入展开分析:
ChatGPT会提升我们的生产力,所以dddd。
确实此前有人就表示自己账号被封后,工作效率大减。
而且最近已经有不少公司把ChatGPT引入工作流,不知这轮封号是否会造成影响。
加上韩国三星因员工将企业数据上传给ChatGPT一事、以及意大利封禁ChatGPT的消息传出,很多人预言这周一ChatGPT概念股要暴跌。
不过,和用户侧受到大范围影响不同,股市方面的表现和周末许多人的预测不太一样。
周一上午,ChatGPT板块领涨,多支股票涨幅超5%。
不过需要注意的是,还是有非常多人的账号没有受到影响,可以正常使用。
所以大家也不要过度恐慌,仔细分辨好自己的账户是不是还健在……
判断方法大概如下:
如果登录状态被封,如果出现“提示无法加载历史信息”或“输入框输入内容无法发送”,账号可能被封。
如果不是在登录状态下被封,就会在登录过程中报错:
账户停用。如果您需要帮助,请通过我们的帮助中心与我们联系。(错误=账户停用)
Account deactivated. Please contact us through our help center at http://help.openai.com if you need assistance. (error=account_deactivated)
其他情况报错,比如“not available in your……”等,则不一定是账户的问题。
那么账号一旦被封就毫无解决办法了吗?
也不是,报错中就写了,可以直接通过官网进行申诉。
甚至现在已经有人出了申诉的指导帖,表示在申诉中一定要用英文情真意切地表达出账号里的内容对你来说有多宝贵,还要说明自己没有做什么违规的事、之后也不会,希望给予解封。
具体详细内容还要看大家自己的发挥了……
总之这一回,恐怕很多人想要重启ChatGPT的大门,难上加难。
你的账号现在还好吗?
参考链接:
[1]https://mp.weixin.qq.com/s/shRwFbQS1Oth6t5wVBNw_A
[2]https://www.landiannews.com/archives/98095.html
[3]https://foofish.net/how-to-restore-chatgpt-account.html
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
hatGPT的到来,让许多行业人人自危,当ChatGPT编程时代到来时,产品经理和产品设计工具如何给出“正确的指令”成为顺应时代变革的关键,那么产品经理该如何面对此次变革?
ChatGPT无疑是2023年开年最火的词汇,ChatGPT让许多行业人人自危,因为一些技术含量低或者说有规律可循的行业终将被ChatGPT颠覆,目前最先被颠覆的行业有客服、文案、编程等,可能很多人会很惊讶编程也被颠覆了吗?编程的逻辑很强啊,不好意思真的就被颠覆了,因为编程语言存在其规律性,那么一直以来附着于技术团队的产品会不会也被颠覆呢?个人觉得不会,反倒恰恰相反产品+ChatGPT的组合反倒会加速编程行业或者叫程序员的消亡。
程序员弗兰克·安德鲁德在测试ChatGPT编程的过程中,弗兰克对ChatGPT输入了以下指令:“使用html和CSS(两者均为前端编程语言)为电子商务网站编写代码,网站包括导航栏、正文与带价格的产品。”而ChatGPT也毫不示弱,瞬间给出了正确的答案。同时弗兰克表示,ChatGPT并不完美,它不会总是给出预期的结果,但当它清楚了解我们想要什么时,它就是“一头野兽”。如同脚本帮助我们将繁琐的流程自动化,模板帮助我们避免重复编写代码,只需要给ChatGPT输入正确的指令,它就可以帮助开发人员更高效地推进工作。
请注意程序员弗兰克·安德鲁德说的这句话:“ChatGPT并不完美,它不会总是给出预期的结果,但当它清楚了解我们想要什么时,它就是“一头野兽””,是的ChatGPT并不完美,他需要清楚地了解我们想要什么,这个想要什么的指令是程序员提供给ChatGPT的吗?答案是否定的,按照现行产品开发逻辑,“想要什么”首先是需求方传递给产品经理,由产品经理消化吸收后再提供给程序员,最后由程序员完成编程操作,所以说只要产品经理让ChatGPT了解他想要什么就够了,也就是弗兰克·安德鲁德所说的“正确的指令”。
“正确的指令”就是能让ChatGPT了解想要什么的命令,而这个想要什么就是产品经理的产品原型和逻辑流程图,再有就是如何让ChatGPT有效读取这些指令。所以当ChatGPT编程时代到来的时候产品经理和产品设计工具如何给出“正确的指令”成为顺应时代变革的关键。
产品经理作为需求方与程序员沟通的桥梁,在未来ChatGPT编程时代依然需要产品经理这个角色给与ChatGPT“正确的指令”,而正确的指令却需要产品经理深刻理解需求方的需求,融会贯通做出“正确的指令”,让“正确的指令”成为ChatGPT编程的核心命令。所以产品经理深刻理解能力决定该“正确的指令”是否是正确的是否符合需求方需求。
需求方往往给出的只是一个想法而已,产品经理需要通过自身经验和产品全生命周期管理的能力在充分理解需求方意图的同时还需要迎合市场、用户和战略及战术等做出“正确的指令”。
所以“正确的指令”对产品经理的要求是极其高的,产品经理应该是个综合做能力的全能型人才,那么产品经理在产品设计全生命周期管理过程中需满足哪些需求呢?
“正确的指令”硬生生的将产品经理逼成了具备战略战术能力的决策者,会创意、懂市场、懂营销和熟悉客户体验的运营人,控成本、抓进度、跟生命周期的高级管理者,玩得了UE和交互的设计师,还要既会培训又要懂数据的督导,面对ChatGPT编程带来的时代变革,产品经理那也是得拼了,就为了能够给出“正确的指令”必须成为具备综合素养的全能型人才。
综合素养的全能型人才对产品经理这一行业提出了更高的要求,但是没有办法,时代在发展,也只有这样才能直面ChatGPT带来的时代变革,成为传统产品+程序员模式的掘墓人和新型“ChatGPT+产品”模式的引领者。
记得几个月前还在研究产品设计工具该如进行产品全流程管理,当ChatGPT编程时代到来之后需要考虑的不仅仅是让产品经理如何通过工具设计好一个产品原型了,而是这个产品原型怎么让ChatGPT读懂,最快速的生成完整的程序。
产品经理给出的“正确的指令”主要还是产品设计原型(产品DEMO)和流程图,如何将这些“正确的指令”传递给ChatGPT成为核心,而产品设计工具服务产品经理的核心就是让产品经理更好的设计好自己的产品原型,规划好需求的流程,所以产品设计工具就是“正确的指令”的编译者,如果能将这些“正确的指令”通过规范的模式或者借口传递给ChatGPT进行编程操作,那么未来产品开发的进度不再是等着程序员一个代码一个代码的编译了,而是能在极短的时间内进行编译,后期测试的过程再查漏补缺,这个时候产品设计工具需要再设计修正功能和BUG改善功能即可完成“ChatGPT+产品”的新型系统开发模式,完全取代程序员这一角色,从而直面ChatGPT带来的时代变革。
ChatGPT编程时代已来,唯有直面ChatGPT带来的时代变革,找到属于自己的定位才能更好地适应ChatGPT带来的新时代。变革伴随着消亡和希望而来,曾几何时被捧为“天之骄子”的程序员在一夜之间变得那么的平凡,甚至面临着被时代所抛弃的可能,所以不是我们看不懂而是这个时代变化太快了,ChatGPT无异于又一次的产业革命,产品经理和产品设计工具唯有抓住时代变革的机遇,尽快改变自己适应时代发展才能避免被淘汰的厄运。
专栏作家
北漠,微信公众号:北漠聊数字互联网,人人都是产品经理专栏作家。资深互联网人,专注于企业数字化转型、互联网运营、营销、数据分析和产品规划等领域。
本文原创发布于人人都是产品经理。未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
*请认真填写需求信息,我们会在24小时内与您取得联系。