财联社5月12日讯(编辑 史正丞)美国当地时间5月11日,由OpenAI前员工创立、背靠谷歌的Anthropic,发布了最新的Claude模型,最大的升级亮点就是语境窗口支持的Token数量一口气从9000提升至10万

这项升级的意义在哪里呢?还得从OpenAI的GPT-4开始说起。

在OpenAI两个月前发布GPT-4时,《大西洋》杂志提出了一个致命的问题:这些大模型的记忆力,普遍都不太行


(相关资料图)

“告诉ChatGPT你的名字,再复制数千个随便拼凑的单词,然后再去问机器人你的名字是啥时,它就完全不记得了。”——《GPT-4有着金鱼一样的记忆力》

这里需要先为OpenAI解释一下,GPT-4的升级中就包含了“记忆力”的提升,标准GPT-4版本的语境窗口已经翻了一倍至8192 tokens(简单来说,1000 tokens对应750个英文单词),同时GPT-4模型还支持最高3.2万tokens的API(官方称为50页文本),价格也要比标准模型翻一倍

根据官方解释,一旦对话长度超出token数量限制,AI模型可能会生成一些不连贯且无意义的内容,也就是俗称的“胡说八道”。

记性更好的AI大有用途

虽然普通用户平日里使用大模型,差不多接近5000字的记忆力上限大致够用,但对于有处理长文本(上市公司年报、技术文档)需求的专业用户而言,这个限制就使得现有的大模型多少有些鸡肋了。用股民能理解的话来解释,50页的限制大致能处理季报,但动辄上百页的年报就有心无力了。

Anthropic表示,10万个token大概等同于7.5万个英文单词。对于母语者来说,光读一遍差不多就要5个小时,而消化、记忆和分析这些信息要花的时间还会更长。

在演示中,Claude扮演了一名商业分析师的角色,接到的指令是处理奈飞公司的年报10-K表,从85页的信息中“找到资产负债表中对潜在投资者最重要的信息,并解释为何重要”,并按照先给表格罗列数据,再提供总结分析的格式呈现

对于解读奈飞资产负债表的任务来说,Claude已经能完成攫取信息和解释信息的能力,不仅能罗列出数据,还能挑出财报中提到的数据变动原因。虽然距离人类分析师融汇古今、遣词造句的能力尚有差别,但已经达到商业化工具的要求。

当然,面对10万token的“记忆容量”,能够解锁的玩法远远不止读上百页文档。美国音频AI平台AssemblyAI特意做一个视频,“商业互吹”Claude的意义。

AssemblyAI介绍称,现在用户可以把一本书直接丢进AI,然后布置诸如总结、解释和搜索的任务。举例而言,知名游戏开发者约翰·卡马克的一集博客,差不多有5.8万字(7.8万tokens),8部星球大战一共讲了6.5万字的台词(8.7万tokens),现在都可以扔进Claude,用1分钟时间就能“读完”整个文件,并回答一系列原本需要人类数十小时才能完成的总结、分析类问题。

以约翰·卡马克长达5小时的播客为例,通过AssemblyAI进行转写后,Claude不仅成功回答了“总结卡马克谈论过由他开发的游戏”——Doom、Quake等,同时还额外列出卡马克在播客中提及,但并不是由他开发的游戏,如超级马里奥、星球大战等。

Anthropic总结称,支持10万token的模型,对于经济、法律等经常需要分析超长文本的行业极为有用。不仅能够归纳和解释上市公司财报、研究报告等长文件,提供股票投资的基本面和风险分析,还能阅读晦涩难懂的法律文件和程序开发文档,快速地给出答案

目前,最新的Claude已经通过API向商业用户开放,100K tokens版本定价与此前9k tokens版本一致。

关键词: