网站首页    信息智能    像研究人类一样研究ChatGPT
  • 中国钾盐缺口

    中国有56%的耕地需要“补钾”,总体上越往东南越严重,闽、湘、鄂、粤、海南以及江淮地区土壤钾含量都十分稀少,高效钾含量只有新疆、关中农业区的二分之一甚至四分之一。2023年,中国钾盐缺口68%,需进口1000多万吨,而由于钾的高度垄断,进口选项非常有限。

    0 ¥ 0.00
  • 三井物产的情报网

    微软的情报系统对企业经营的贡献率大约是17%左右,而三井这种贸易财团则是以信息为最终的经济效益,其情报就是整个公司的命脉。作为民间研究机构,从研究的深度、广度和企业接受程度来看,比政府研究机构更有效率。其成果被日本企业界认为是经济变化的风向标。

    0 ¥ 0.00
  • 为什么盒装奶是950毫升?

    国内的一些牛奶包装沿用了美国的可折叠屋顶式纸盒设计,用的模具一样,那标注的容量也跟别人一样,取近似值950毫升。制造商在保持包装大小和价格不变的情况下,稍微减少产品的体积。这可以帮助公司在生产成本上升时控制开支,而不会显著提高零售价格。

    0 ¥ 0.00
  • 一个县城与打火机

    12道工序、32个零配件、15项测试标准……制造出1元打火机。全球一年销售200亿只,约七成来自中国湖南邵东。这里年产打火机150亿只,远销120个国家和地区,串起来能绕地球20圈。在邵东,平均每1分钟就有2.8万个打火机下线,其打火机生产技术也在不断创新。

    0 ¥ 0.00
  • 重生的俄罗斯农业

    2002年俄出台《农业用土地流通法》后,一系列法律让农用土地流通得以明确、透明地进行,保证了农业政策的稳定性。2007年对农业发展做出规划,实行农业保护政策和农产品价格调控政策,对农作物保险费实施补贴。次年俄罗斯农业从粮食净进口国转变为粮食净出口国。

    68 ¥ 0.00
  • 印度,用糊糊驯服味蕾

    谷物的富余,让印度不怕浪费粮食,人们发现,面粉和米粉作为糊糊的增稠剂,质地更浓郁粘稠、香料与食材融合度更好,且可以保温和解腻,缓解糊油脂和肉类的油腻感。原本粗劣的糊糊,在不断融合的过程中,越来越能驯服各种各样的食材,并形成另一条美食路径。

    60 ¥ 0.00
  • 拜耳伤痕

    买下孟山都,彻底改变了拜耳的发展轨迹。拜耳最大的三项并购是2006年以199.5亿美元的价格收购先灵公司,2014年以142亿美元收购默沙东的OTC业务,以及2016-2018年间以630亿美元收购孟山都。前两项并购起码还增强了拜耳的制药业务竞争力,最糟糕的是对孟山都的收购。

    19 ¥ 0.00
  • 全球家族办公室现状

    只有少数家族办公室将注意力放在促进家族团结和长期稳定上。在职能专业化方面,投资管理进展最为显著,而其他职能专业化水平则存在差异。家族本身的专业化水平也呈现出类似的情况。许多家族和家族办公室都缺乏领导人接班规划,并且未为下一代制定教育规划

    73 ¥ 0.00
  • 日本地理标志保护制度

    长期以来,日本对地理标志的保护,都是通过《反不正当竞争法》《商标法》等法律提供的被动保护。2014年日本颁布GI法。该部专门法对地理标志的保护进入主动保护阶段。该法能制定实施,除了促进农林水产等产业发展、保护消费者利益外,与欧盟谈判也是重要因素。

    24 ¥ 0.00
  • 全球产业链演化历程

    技术演进、竞争优势和风险环境是推动全球产业链发展的三股主要力量。技术演进是产业链结构变化的基础。在不同时期,三股力量以不同形式共同塑造全球产业链格局。在当前,三者分别对应着绿色化、效率性和安全性,使产业链呈现绿色化与多国多中心化的发展趋势。

    240 ¥ 0.00
  • 游戏行业的肉与汤

    AI会不会彻底改变这个行业,“不好说”,“AI原生游戏大概率不会是我们先搞出来,可能是哪个做AI的实验室先做出来,然后其他人会在他们的基础上往下走,”卢竑岩表示,目前还没有看到离实用特别接近的科研成果,“但也很难说,会不会突然有爆发性地增长。”

    0 ¥ 0.00
  • 120年美国房价历史和规律

    从1890年到2013年的123年中,有28年下跌,95年上涨。其中跌得最深的是2008年,跌幅达18%。连续下跌达到5年的只有两次,第一次是1929-1933年累积跌幅达26%;2006-2011年累积跌幅达33%。在过去的123年中,美国房价平均增长率为3.07%,CPI 通胀率为2.82%。在扣除通胀率后,房价就基本不涨了。

    0 ¥ 0.00
  • 枢纽城市之争

    超级承运人与枢纽机场相辅相成,带来大量客流、物流,从而拉动当地经济发展。无论是超级承运人,还是枢纽机场,都强调“集中”,如达美航空在亚特兰大份额超过80%,堪称“堡垒枢纽”。而中国目前有57家航司,三大航在北上广基地份额都仅在40%-50%之间,市场份额较为分散。

    0 ¥ 0.00
  • 波音从工程奇迹到信任危机

    批评人士说,波音公司把安全当成了利润的牺牲品。”这样做是为了让波音的运营更像一家企业,而不是一家伟大的工程公司。波音的确是一家伟大的工程公司,但人们投资一家公司是因为他们想赚钱。”今天的波音既不是一家伟大的工程公司,也不是一个好的投资对象。

    0 ¥ 0.00
  • 计算机产业史

    本文从1946年第一台计算机ENIAC发明开始,阐述计算机作为不同效用工具为人所用。从科学计算、数据处理、适时控制,到线上社交、个人玩乐、办公效率、图形工具,再到内容平台、互联网与云计算时代,最后计算机已经融入到我们生活方方面面,无处不在。

    互联网之所以能够大而统一,发挥最大网络效应,与其去中心化的基础定位有很大关系:数据包发送方式和发送内容无关,任何设备都可以加入互联网,唯一中心化的域名管理机构获得了独立且非营利地位,互联网治理更多依赖社交机制,而不是靠特定机构来管理。

    27 ¥ 0.00
  • 墨西哥的中国工厂

    中国企业到墨西哥以前,目光紧盯着美国,到墨西哥后却发现了许多新机会。同时到了墨西哥后,它们惊觉,中国经验失灵了。不同于过去从欧美日企业到亚洲四小龙再到中国,再从中国到东南亚的产业转移,中资企业到墨西哥是一场大国博弈背景下的应变之策。

    74 ¥ 0.00
  • 像研究人类一样研究ChatGPT

    一篇有关“机器心理”的预印本。他在其中提出,把LLM当作一个人类对象来对话,可以揭示底层简单的计算之中产生的复杂行为。Google的研究引入“思维链提示”,来描述一种让LLM展示“想法”的做法,会让模型按相似的流程行事。它会输出思维链,这么做更可能获得正确答案

    28 ¥ 0.00
  • 欧亚电网互联的地缘要素

    欧亚电网互联问题上,欧盟和俄罗斯等传统“电力中心”依然重要,新“中心”如中国、印度、土耳其、伊朗等也在崛起。随着技术发展,电网容易受外部力量影响,美国也在不断尝试渗透。电网联通可以建立包容、平等、开放的政治空间;同时,也可以成为政治制度堡垒。

    116 ¥ 0.00
  • 北京与“繁华”

    相比窄路,大宽马路大街区反而才堵车。小尺度的交叉口信号相位少、周期短,可使清空距离和损失时间变短。北京“宽马路、疏路网”,与东京、纽约、香港“窄马路、密路网”,后者利于微循环打通,利于商业繁荣。另外,不是街区制,三百万以上人口就会爆发城市病。

    77 ¥ 0.00
  • 日本基金业萧条30年后

    90年代初至今,日本基金行业直面“失去的30年”。但仍实现一定程度结构性发展:当资金逃离权益市场,通过出海等方式拥抱固收业务、后开发养老金投资、逐月决算基金等特殊业态,头部机构又依托日本央行购买ETF扩表等,在被动产品上做大规模,最终铸成今日格局。

    138 ¥ 0.00

【作者:Matthew Hutson;插图:Fabio Buonocore;源自:Nature自然科研官方账号《像研究人类一样研究ChatGPT:人类能否解锁AI“黑匣子”》2024.08】

 

研究者们在努力对人工智能逆向工程,扫描LLM的“大脑”,看它们在做什么、怎么做,以及为什么。

 

 

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F3011f3ccj00shqqft004ed200ol00qsg00if00k2.jpg&thumbnail=660x2147483647&quality=80&type=jpg

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F7dd9bdd4j00shqqft0034d200nr00j1g00if00er.jpg&thumbnail=660x2147483647&quality=80&type=jpg

 

奇怪行为

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F79dc5430j00shqqfu002ud200oc00hgg00if00d7.jpg&thumbnail=660x2147483647&quality=80&type=jpg

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F08e475a3j00shqqfv0071d200p700s0g00it00kw.jpg&thumbnail=660x2147483647&quality=80&type=jpg

 

谈话疗法

 

因为聊天机器人可以聊天,一些研究者就会直接要模型解释自己,来询问它们的运作机制。这一做法和人类心理学中使用的差不多。“人类的心智是黑匣子,动物的思想差不多是黑匣子,而LLM就是黑匣子。”德国斯图加特大学的计算机科学家Thilo Hagendorff说,“心理学很擅长调查黑匣子。”

去年,Hagendorff发了一篇有关“机器心理”的预印本。他在其中提出,把LLM当作一个人类对象来对话,可以揭示底层简单的计算之中产生的复杂行为[3]。

2022年Google的团队进行的一项研究引入了一个叫做“思维链提示”的术语,来描述一种让LLM展示“想法”的做法。首先,用户提供一个示例问题并展示他们会如何逐步获得答案,然后再问真正的问题。这会让模型按相似的流程行事。它会输出思维链——此外,有些研究显示出,这么做更可能获得正确答案[4](见“思维链”)。

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F9d389419j00shqqfw003id200nd00r0g00it00lq.jpg&thumbnail=660x2147483647&quality=80&type=jpg

但是,计算机科学家Sam Bowman(就职于纽约大学和Anthropic)和同事们去年表明,思维链可能并未可靠地解释模型做了什么[5]。

研究者们首先故意向研究的模型引入偏误,例如给了一系列回答总是A的选择题。团队之后会问一个测试问题。模型通常会回答A——无论正确与否——但几乎从不会说它们这么选是因为“答案总是A”。相反,它们会编出一些带来这些回答的“逻辑”——跟人一样,无论是有意还是无意[5](见“虚假逻辑”)。

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F32797de7j00shqqfx0029d200ng00nsg00it00j2.jpg&thumbnail=660x2147483647&quality=80&type=jpg

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F2b2489b0j00shqqfy003id200n600mjg00if00hw.jpg&thumbnail=660x2147483647&quality=80&type=jpg

 

大脑扫描

 

其他研究者在从神经科学中获得灵感来探索LLM的内部机制。为了研究聊天机器人如何骗人,美国卡内基梅隆大学的计算机科学家Andy Zou和他的同事们询问了LLM并检查了它的“神经元”激活状态。“我们所做的事就像对人类进行神经扫描。”Zou说。它也有点像设计测谎仪。

研究者们告诉LLM好几次让它们撒谎或是讲真话,并测量了神经活动中模式的区别,制造出了一套诚实度的数学表达。之后,当它们问模型一个新问题的时候,他们就会看它的活动并估算它是否诚实——在简单的测谎任务中有超过90%的准确度。Zou说这套系统可以用来实时检测LLM的谎言,但他想先看到它的准确度再提高一点。

研究者们进一步进行调整,干涉模型的行为,在问问题的时候将诚实的模式引入活跃的神经元中,强化了它的诚实度。他们对其他一些概念也进行了类似的流程:他们可以让模型更多或更少地快乐、无害、性别歧视或追求权力等等[6]。

Bau和同事们还设计了方法来扫描并编辑AI神经网络,其中包括了他们称为因果追踪的一种技术。这里的概念就是给模型一个输入,类似于“乔丹的运动项目是……”,让它回答“篮球”,然后再给个别的输入,比如“谁谁谁的运动项目是……”,然后再看它输出些别的。这样他们就可以从第一个问题中取得内部的活跃信息,然后不同程度地恢复它,直到模型对第二个问题也回答“篮球”,从而观察神经网络中哪部分对这一回答至关重要。换言之,研究者们想要识别出AI的哪部分“大脑”让它给出特定的答案。

团队开发了一种方法,通过调节特定参数来编辑模型的知识——以及另一种方法可以批量编辑模型的知识[7]。团队说,这些方法在你想修正错误或过时的知识又不想重新训练整个模型的时候会很方便。这些编辑非常精细(它并不会影响到关于其他运动员的知识),同时可以很好地扩展(即使改变措辞来问问题,编辑也能影响答案)。

人工神经网络有个好地方是,我们可以做一些神经科学家只能想想的实验。”Bau说,“我们可以调查每一个神经元,我们可以把神经网络重跑几百万次,我们可以把各种疯狂的测量和干涉做到底。而且我们不需要签同意书。”他说,这项工作也获得了神经科学家的注意,他们希望能获得对生物大脑的见解。

北卡罗来纳大学教堂山校区的计算机科学家Peter Hase认为,因果追踪能提供信息,但还没有揭示全貌。他的研究显示,即使编辑那些因果追踪出的神经元以外的层,也可以改变模型的回复。这不是人们想要的[8]。

 

运作机制

 

很多扫描LLM的技术——包括Zou和Bau的研究——都采用自上而下的做法,为概念或知识寻找底层神经表现的归因。另一些人则采用自下而上的做法:检查神经元,然后问它们代表什么。

Anthropic的一个团队于2023年发表的论文获得了一些关注,因为它提出了一种精细方法在单神经元的层级理解LLM。研究者们调查了一个很小的AI,只有一个transformer层(大的LLM会有十几层)。当他们研究一个包含512个神经元的子层时,他们发现每个神经元都是“多义”的——会对很多样的输入产生反馈。通过在每个神经元激活时进行映射,就发现这512个神经元的行为可以用一套4096个虚拟神经元来描述,每个虚拟神经元都会因一个特定的概念亮起来。实际上,在这512个多功能的神经元之中包含了数千个虚拟神经元,其中每个都有更单一的角色,负责处理一项工作。

这都是让人感到激动,能看到希望的研究”,让人能看到AI的运作机制,Hase说,“就好像我们能把它拆解开,把所有齿轮摊在地上一样。”Anthropic的共同创始人Chris Olah说。

但是研究小模型就有点像通过研究果蝇来理解人类。虽然有价值,Zou说,但想要解释AI行为中更复杂的那些方面,这种做法就没那么合适了。

 

强制解释

 

虽然研究者们还在努力研究清AI在做什么,现在已经逐渐出现一种共识,公司应当至少尝试为模型提供解释——而监管部门应当到位执行。

一些法规确实要求算法是可解释的。例如,欧盟的AI法规要求“高风险的AI系统”的可解释性,比如远程进行生物识别、执法,或是访问教育、雇佣或公共服务的系统。Wachter说LLM并未分类为高风险,或能绕开可解释性的法律要求,除非有特定用途。

但这并不应让LLM的制作者彻底脱身,Bau说,他对于某些公司——例如ChatGPT背后的OpenAI——对最大的模型保密一事感到不满。OpenAI告诉《自然》,这是出于安全考虑,或许是为了防止恶意之徒利用模型的执行细节来获利。

OpenAI和Anthropic等公司都在XAI领域内做出了巨大的贡献。例如,2023年OpenAI发布了一篇研究,使用它最新的AI模型GPT-4,尝试从神经元层面解释早期模型GPT-2给出的回复。不过,还需要更多研究来解读聊天机器人的工作原理,而有些研究者认为发布LLM的公司应当确保这一点。“总有人要负责做研究,或促成科学研究。”Bau说,“才能不至于走向不负责任的乱摊子。”

 

参考文献:

1.Grosse, R. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2308.03296 (2023).

2.Li, K. et al. in Proc. Int. Conf. Learn. Represent. 2023 (ICLR, 2023); available at https://openreview.net/forum?id=DeG07_TcZvT

3.Hagendorff, T. Preprint at arXiv https://doi.org/10.48550/arXiv.2303.13988 (2023).

4.Wei, J. et al. in Adv. Neural Inf. Process. Syst. 35 (eds Koyejo, S. et al.) 24824–24837 (Curran Associates, 2022); available at https://go.nature.com/3us888x

5.Turpin, M., Michael, J., Perez, E. & Bowman, S. R. Preprint at arXiv https://doi.org/10.48550/arXiv.2305.04388 (2023).

6. Zou, A. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2310.01405 (2023).

7.Meng, K., Sharma, A. S., Andonian, A. J., Belinkov, Y. & Bau, D. in Proc. Int. Conf. Learn. Represent. 2023 (ICLR, 2023); available at https://openreview.net/forum?id=MkbcAHIYgyS

8.Hase, P., Bansal, M., Kim, B. & Ghandeharioun, A. Preprint at arXiv https://doi.org/10.48550/arXiv.2301.04213 (2023).

原文以How does ChatGPT ‘think’? Psychology and neuroscience crack open AI large language models标题发表在2024年5月14日《自然》的新闻特写版块上

 

2024-08-15
一篇有关“机器心理”的预印本。他在其中提出,把LLM当作一个人类对象来对话,可以揭示底层简单的计算之中产生的复杂行为。Google的研究引入“思维链提示”,来描述一种让LLM展示“想法”的做法,会让模型按相似的流程行事。它会输出思维链,这么做更可能获得正确答案

像研究人类一样研究ChatGPT

image