热门广告位
申请加入

普及下个人对ChatGPT有关的知识理解!

官方资讯6个月前发布 sofeet
8 0 0
广告也精彩

ChatGPT是OpenAI公司出品的一款对话机器人,这家公司是美国的,微软是他的股东。ChatGPT是基于GPT-3模型创建的,这个模型用大量的互联网数据和电子书进行训练,最终实现的对话效果可以说是一鸣惊人,掀起了AIGC的狂潮。

目前ChatGPT默认的GPT-3模型数据来源主要有维基百科、互联网新闻、电子书籍、电影数据、论文等,截止日期是2021年9月份。它是一个静态模型,我们和他对话并不能让他更聪明或记住任何知识,它只能在上下文对话中记住信息,一旦重新开始对话或其他人问它,则还是用原来的静态模型来回答问题。训练的数据其实都是英文的,但是由于chatgpt已经实现了各国语言的翻译和理解,所以我们问中文问题它也能对答如流,但如果问的问题是中文的深度理解和应用,或涉及方言俗语,效果就很不好了。在这方面文心一言其实比chatgpt要强一些,主要是因为训练数据的差异,其他方面文心一言和chatgpt差距还是很大的。

ChatGPT采用的是GPT模型,也就是俗称的“大模型”,这个模型最早是由谷歌提出的,主要是用于生成内容。谷歌还提出了bert模型,主要是用于对内容的理解,比如进行分类和检索。这两个模型都是基于transformer算法发展出来的,是近些年来人工智能领域的一大进步,比原来的RNN(循环神经网络)有了质的飞跃。GPT-3实际上是OpenAI公司自己取的名字,据说使用了1750亿参数,GPT-3经过了人工数据标注训练,即RLHF(人类反馈的强化学习)后,演化出了GPT-3.5,一般认为ChatGPT是基于GPT-3.5微调后上线的产品。GPT-4官方没有公布具体的参数数量,有说1万亿,也有说10万亿的,总之效果确实比GPT-3.5更好,但性能消耗更高,价格也更昂贵。OpenAI之所以能那么出名,是因为他们发现了当参数不断增大的时候,大模型就会涌现出很多能力,类似量变引起质变,对问题回答的准确度随着参数增加直线上升(如下图)。但由于训练不是一朝一夕可以完成,且训练除了需要数据也需要对模型进行微调(fine-tuning),投入巨大,所以国内公司短期内是不太可能追上的。

普及下个人对ChatGPT有关的知识理解!

 

     说了很多技术背景之后再讲讲OpenAI这家公司的运营策略。目前OpenAI不允许中国(含港澳台地区)用户使用,可能是为了逃避美国制裁,也可能是无法满足中国政府关于数据审查的要求,主动放弃中国市场。注册账号的时候需要使用海外的手机号收验证码,同时访问chatgpt服务的时候验证IP地址,目前除了封了国内的IP段,还有很多海外的虚拟主机运营商、飞机场的IP被封了。为了能够使用chatgpt,你可能需要通过接码平台买一个验证码,然后科学上网后用自己的邮箱注册账号,注册后可以登录官网免费对话。官网对上下文也有长度限制,感觉上可能比API接口大一点。免费的账号使用不太稳定,如果想更稳定一些并且想使用GPT-4模型对话,需要开通Plus会员,每月20美金,只支持通过绑定国外信用卡支付。由于大多数国人都没有国外的信用卡,所以一般选择代充或者是注册虚拟信用卡depay。开通后每3小时可以问25个使用GPT-4模型的问题,其实也比较鸡肋,只能体验一下。除此以外,Plus会员没有任何其他服务了,个人不建议长期开通。

每注册一个会员,OpenAI会送我们5美元免费额度,这个额度是用来支付API接口费用的。最早送18美元,现在变成5美元,不过最早没有GPT-3.5模型,只有又贵又不好用的GPT-3模型。目前gpt-3.5-turbo模型每1000个tokens的价格是0.002美元,问答上限是4096个tokens,而gpt-4模型有8000个tokens和32000个tokens两种,分别是每1000个tokens收费0.06美元和0.12美元,价格是gpt-3.5-turbo模型的60倍!每个tokens代表一个英文单词或标点符号,而一个汉字算两个tokens,所以使用gpt-3.5-turbo模型调用API接口含上下文最多只能输入和输出总共2000个左右的汉字。虽然gpt-4让这个上限增大了很多,但是用不起啊。我个人统计,每个中文问题在1000到2000个tokens之间,约等于人民币2分钱。而如果同样的问题用gpt-4模型去问,就是1.2元。

目前官方openai已经开放gpt-4模型的使用。由于openai理论上是不允许中国人使用的,所以国内用户很多申请都无法通过,毕竟大多数人注册IP、注册手机号、登录IP都不是一个国家的,特征太明显了。其实目前GPT-4模型不支持图片识别,文字能力虽然比GPT-3.5有提升,但提升并不是特别明显(如下图),所以性价比并不高。大家有兴趣可以申请下试试:https://openai.com/waitlist/gpt-4-api

普及下个人对ChatGPT有关的知识理解!

再说说关于生成图片的话题吧。OpenAI公司除了chatgpt这种文字引擎以外,还有一个生成图片的引擎叫DALL-E,目前也是可以通过接口调用生成的,价格0.02美元一张1024×1024分辨率的图片,效果挺差的,甚至很多人觉得连文心一言都不如。目前市场上最火的生成图片的软件叫MidJourney,几乎可以免费使用。另外还有开源的Stable Diffusion,可以靠本地GPU运算生成想要的图片。好像现在DALL-E 2已经上市了,但是貌似还不能调用接口,DALL-E 2的画图能力据说提升了不少,到时候可以考虑加入图片生成的功能。

再说说账号的问题。目前市面上有批量注册账号的程序,我看到过有卖的,但一直没有特别关注,因为我觉得这个涉嫌违法,所以账号都是靠买的。批量注册的账号由于IP地址相同,有很大的概率会被封,并且可能是一锅端,所以建议不要一次买太多。不过买的账号成本比较低,一般3-5块钱就能买到5美元的账号,量大还能更便宜,毕竟实际成本只有几毛钱的接短信的费用,所以其实卖1块钱也有利润。也正因为如此,低价的账号让我们靠API运营网站的成本得以极大的降低,目前可以尽情享受这个红利。注册账号时赠送的5美元有效期3个月左右,可以用完即丢。还有一种120美元的账号,其实就是5美元的账号绑定了信用卡,openai给了120美元的额度,月结。由于绑卡的人绑定完虚拟信用卡后可能就注销了,所以到月底结账的时候账号就会欠费被停,120美元的账号一般只能用一个月,不管你消费了多少钱。当然,不管是5美元的账号还是120美元的账号,使用过程中随时可能会被封,个人分析被封的原因主要还是批量注册时的IP相同,和调用API接口时的IP没什么关系。5美元的账号每分钟只能查询3次,超过这个频率接口就会提示错误,120美元几乎没有限制频率,所以还是值得考虑的,目前120美元账号的价格在30元到50元左右波动。

再谈谈合法性的问题吧。从国家层面讲,OpenAI是一家美国公司,服务器都在美国,如果调用接口,所有数据必然会被OpenAI收集。并且OpenAI已经表明了态度,不打算在中国市场运营,所以也不可能配合国家把数据留在国内。因此,国家已经禁止了很多国企,尤其是研究机构用chatgpt写代码、解决日常问题等。但是技术的潮流到来,不拥抱就会被淹没,我相信国家高层也是懂这个道理的,所以也没有一棒子打死。据我了解,在国内很多行业,也在低调使用GPT,这已经是大势所趋。在国内AI企业普遍比较拉跨的情况下,国家不会轻易立法禁止chatgpt的使用。

 

目前我们低调地用OpenAI接口赚钱风险还是不大的,就算有问题,也是和OpenAI的商业纠纷。只有腾讯那样规模的企业才会顾忌用户在他的平台上侵害了其他厂商的利益,毕竟OpenAI告不了我们,告腾讯还是很容易的,所以微信上明目张胆打着chatgpt旗号的小程序屡屡被禁。但我们只运营网站,就算域名被封了,换一个就好了。除了使用OpenAI的风险,还有一个就是生成内容合法性的风险。上文也说了,训练模型的数据来自海外,里面有很多不符合社会主义核心价值观的内容。

国家也紧急发文要求国内企业做类似的AI应用时要注意合规。我们现在的模式是每个用户只能看到自己的提问和解答,就算有些敏感信息,也只能自己看到,搜索引擎和其他用户并不能看到,WJ一般也不会看到,除非用户自己举报自己。我觉得相对来说是比较安全的。当然做个关键词屏蔽功能也是可以的,虽然可能会误伤,但更保险一点。也是基于这个原因,我并没有很想做那种提问和回答都公开模式的网站,虽然能更多地让搜索引擎收录,能给网站带来更多流量,但一旦有违法信息被发现,罚款和拘留的风险谁都承受不起。

其实除了OpenAI提供的API,微软也提供了类似的API接口,我看模型和定价和OpenAI是一样的,据说是可以在国内直接调用的,只不过不送体验额度,只能充钱使用而已。之前有个网友联系我说他们公司是微软的金牌代理,可以给用户开账号,然后充钱使用,费用在8折左右。我觉得微软提供的接口支持国内访问,稳定性应该比OpenAI要好一些,但合法性可能还是存疑的。现阶段性价比不算很高,但如果客户要求稳定和极致的体验,也是一种选择。

最后再普及一下模型的使用方法,这一点其实官网上有讲解,懂英文的朋友可以自己研究一下,不懂的听我简单讲讲。目前调用模型的时候有些参数是可以调整的,这也是比chatgpt对话更灵活的地方,其中最常用的参数就是temperature,这个参数的值默认是1,可以设置的范围从0到2。取值为0的时候输出的结果最客观,不会胡说八道,不知道就说不知道。取值越接近2,回答的内容越天马行空。所以如果问一些严谨的问题,比如科学相关的,写代码等,最好设置成0,如果写文章需要思维发散的,可以把这个值调高。还有一个比较常用的参数就是role,可以在提问之前给机器人设置一个身份,这样生成的内容会更加精准,更加符合用户期待。具体可以参考这里:https://platform.openai.com/docs/guides/chat/introduction

普及下个人对ChatGPT有关的知识理解!

有些朋友跟我交流的时候提到想用自己提供的数据训练OpenAI的模型,从而建立属于自己的专属模型,这一点我略有研究。OpenAI确实放出了一些模型和接口可供用户进行训练,但是对训练的数据有tokens的限制,太长的文本是无法加入模型训练的,要对数据做预处理工作,比如使用bert-extractive模型对超长文本进行提炼。然后价格也非常昂贵,我试着用几百个裁判文书让模型去训练,结果120美金都不够用。所以现阶段用OpenAI训练自己的模型还是不太好用的,使用场景比较少。当然,OpenAI提供的这种模式让普通人也能很方便的训练自己的模型,也算是一种创新,在此之前如果想训练模型就要购买昂贵的GPU设备,配置复杂的参数,不是一般人负担和学习得起的。由于我们公司目前和清华大学AI团队有合作,所以如果哪位兄弟有跟AI有关的行业级需求,可以找我交流,或许可以使用清华的技术训练一些模型应用于特定行业。只不过预算至少要在百万元以上,预训练模型对硬件的要求是非常高的,哪怕是租用,费用也是不容小觑的。

今天先讲这些,如果想到其他内容或有其他消息我还会不定期在本网站和大家分享。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...