网站首页    信息智能    像研究人类一样研究ChatGPT
  • 重生的俄罗斯农业

    2002年俄出台《农业用土地流通法》后,一系列法律让农用土地流通得以明确、透明地进行,保证了农业政策的稳定性。2007年对农业发展做出规划,实行农业保护政策和农产品价格调控政策,对农作物保险费实施补贴。次年俄罗斯农业从粮食净进口国转变为粮食净出口国。

    2 ¥ 0.00
  • 印度,用糊糊驯服味蕾

    谷物的富余,让印度不怕浪费粮食,人们发现,面粉和米粉作为糊糊的增稠剂,质地更浓郁粘稠、香料与食材融合度更好,且可以保温和解腻,缓解糊油脂和肉类的油腻感。原本粗劣的糊糊,在不断融合的过程中,越来越能驯服各种各样的食材,并形成另一条美食路径。

    4 ¥ 0.00
  • 拜耳伤痕

    买下孟山都,彻底改变了拜耳的发展轨迹。拜耳最大的三项并购是2006年以199.5亿美元的价格收购先灵公司,2014年以142亿美元收购默沙东的OTC业务,以及2016-2018年间以630亿美元收购孟山都。前两项并购起码还增强了拜耳的制药业务竞争力,最糟糕的是对孟山都的收购。

    2 ¥ 0.00
  • 全球家族办公室现状

    只有少数家族办公室将注意力放在促进家族团结和长期稳定上。在职能专业化方面,投资管理进展最为显著,而其他职能专业化水平则存在差异。家族本身的专业化水平也呈现出类似的情况。许多家族和家族办公室都缺乏领导人接班规划,并且未为下一代制定教育规划

    1 ¥ 0.00
  • 日本地理标志保护制度

    长期以来,日本对地理标志的保护,都是通过《反不正当竞争法》《商标法》等法律提供的被动保护。2014年日本颁布GI法。该部专门法对地理标志的保护进入主动保护阶段。该法能制定实施,除了促进农林水产等产业发展、保护消费者利益外,与欧盟谈判也是重要因素。

    1 ¥ 0.00
  • 全球产业链演化历程

    技术演进、竞争优势和风险环境是推动全球产业链发展的三股主要力量。技术演进是产业链结构变化的基础。在不同时期,三股力量以不同形式共同塑造全球产业链格局。在当前,三者分别对应着绿色化、效率性和安全性,使产业链呈现绿色化与多国多中心化的发展趋势。

    141 ¥ 0.00
  • “三得利”的扩张之路

    酿制威士忌100年企业——日本三得利控股的家族长期以来以自己节奏行事,注重长期发展。2022年有190亿美元收入。在日本烈酒、啤酒和软饮料等零散型市场上保持着自己的地位。据穆迪数据,按收入计算,三得利是全球第三大烈酒制造商,仅次于英国帝亚吉欧和法国保乐力加。

    71 ¥ 0.00
  • 4000年利率趋势

    面对历史,大家的归纳判断都不尽相同,对未来,分歧就更大了。利率研究的迷人之处和难度之大,也许就在于其既有一定规律可循,又充满着随机扰动,是无数因素相互作用的结果。特别是在低利率环境下,利率绝对值的一点变动就是百分比的很大变动,利率风险更大。

    85 ¥ 0.00
  • 崛起的伊朗制造业

    4000多年历史的伊朗,会是有力的合作伙伴,是最好要避免的敌人,以及永远不可能是任何人的附庸。它处于亚洲交通要冲,对基础设施改善的需求极大。它有大致完备的工业体系;制造业属于集中化生产,少数大型国有企业掌控;人口年轻化,缺少制造业技术人才储备。

    90 ¥ 0.00
  • 紫禁城里的楠木

    楠木产于川、云、桂、贵、鲁等地区。在紫禁城营建之初,皇帝下命令让80万工匠去这些地方的深山老林里找楠木。太和殿第一次营建使用的是楠木,气味芬芳,不怕虫子也不怕糟朽。但生长周期是300年。第五次复建太和殿时,已没有大尺寸楠木了。所以太和殿里有松木。

    61 ¥ 0.00
  • 计算机产业史

    本文从1946年第一台计算机ENIAC发明开始,阐述计算机作为不同效用工具为人所用。从科学计算、数据处理、适时控制,到线上社交、个人玩乐、办公效率、图形工具,再到内容平台、互联网与云计算时代,最后计算机已经融入到我们生活方方面面,无处不在。

    互联网之所以能够大而统一,发挥最大网络效应,与其去中心化的基础定位有很大关系:数据包发送方式和发送内容无关,任何设备都可以加入互联网,唯一中心化的域名管理机构获得了独立且非营利地位,互联网治理更多依赖社交机制,而不是靠特定机构来管理。

    1 ¥ 0.00
  • 墨西哥的中国工厂

    中国企业到墨西哥以前,目光紧盯着美国,到墨西哥后却发现了许多新机会。同时到了墨西哥后,它们惊觉,中国经验失灵了。不同于过去从欧美日企业到亚洲四小龙再到中国,再从中国到东南亚的产业转移,中资企业到墨西哥是一场大国博弈背景下的应变之策。

    1 ¥ 0.00
  • 像研究人类一样研究ChatGPT

    一篇有关“机器心理”的预印本。他在其中提出,把LLM当作一个人类对象来对话,可以揭示底层简单的计算之中产生的复杂行为。Google的研究引入“思维链提示”,来描述一种让LLM展示“想法”的做法,会让模型按相似的流程行事。它会输出思维链,这么做更可能获得正确答案

    1 ¥ 0.00
  • 欧亚电网互联的地缘要素

    欧亚电网互联问题上,欧盟和俄罗斯等传统“电力中心”依然重要,新“中心”如中国、印度、土耳其、伊朗等也在崛起。随着技术发展,电网容易受外部力量影响,美国也在不断尝试渗透。电网联通可以建立包容、平等、开放的政治空间;同时,也可以成为政治制度堡垒。

    89 ¥ 0.00
  • 北京与“繁华”

    相比窄路,大宽马路大街区反而才堵车。小尺度的交叉口信号相位少、周期短,可使清空距离和损失时间变短。北京“宽马路、疏路网”,与东京、纽约、香港“窄马路、密路网”,后者利于微循环打通,利于商业繁荣。另外,不是街区制,三百万以上人口就会爆发城市病。

    52 ¥ 0.00
  • 日本基金业萧条30年后

    90年代初至今,日本基金行业直面“失去的30年”。但仍实现一定程度结构性发展:当资金逃离权益市场,通过出海等方式拥抱固收业务、后开发养老金投资、逐月决算基金等特殊业态,头部机构又依托日本央行购买ETF扩表等,在被动产品上做大规模,最终铸成今日格局。

    74 ¥ 0.00
  • 超5700家芯片厂商注销

    2022年中国吊销/注销的芯片企业超过5700家。前8个月,吊销/注销芯片相关企业3470家。9月到12月增加了2300多家。平均每天就有超15家注销。波及的范围也更加广泛,不仅包括有技术研发实力的初创明星企业,也包括众多在市场上摸爬滚打多年有一定行业影响力的“老将”。

    65 ¥ 0.00
  • 游戏里的芯片战争

    回溯电子产业的发展,往往会聚焦于顶层政策、产业英雄、技术路线,反而忽略了构筑起人类工业与科技结晶的地基:市场——消费者用钱投票,选出了那些屹立在产业链顶端的庞然大物。如果复盘计算机发展史,就会发现游戏是不断加速的硅基革命最重要的推动力之一。

    60 ¥ 0.00
  • 银行巨头如何倒下

    银行业和其他行业的最大的区别在于,它没有中间状态,只有两个极端(稳态)——信任它,它良好经营;不信任它,它光速破产。不像其他行业,可以 “猥琐发育”几年。真正脆弱的是信心。尽管SVB的倒闭、瑞信的被收购乃至第一共和银行的被牵连固然有其经营上的原因。

    84 ¥ 0.00
  • 加密货币十年

    2014年是token死亡率最高的一年,793种token中的76.5%已不再流通,551种消失。2017年,有704个现已消失的token开始发行流通,比2016年的224个多。2018年是加密行业较危险的一年,有751种token消失。在比特币暴涨前,加密市场上只有14种token,截至2022年,只有比特币和莱特币留在前10名。

    35 ¥ 0.00

【作者:Matthew Hutson;插图:Fabio Buonocore;源自:Nature自然科研官方账号《像研究人类一样研究ChatGPT:人类能否解锁AI“黑匣子”》2024.08】

 

研究者们在努力对人工智能逆向工程,扫描LLM的“大脑”,看它们在做什么、怎么做,以及为什么。

 

 

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F3011f3ccj00shqqft004ed200ol00qsg00if00k2.jpg&thumbnail=660x2147483647&quality=80&type=jpg

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F7dd9bdd4j00shqqft0034d200nr00j1g00if00er.jpg&thumbnail=660x2147483647&quality=80&type=jpg

 

奇怪行为

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F79dc5430j00shqqfu002ud200oc00hgg00if00d7.jpg&thumbnail=660x2147483647&quality=80&type=jpg

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F08e475a3j00shqqfv0071d200p700s0g00it00kw.jpg&thumbnail=660x2147483647&quality=80&type=jpg

 

谈话疗法

 

因为聊天机器人可以聊天,一些研究者就会直接要模型解释自己,来询问它们的运作机制。这一做法和人类心理学中使用的差不多。“人类的心智是黑匣子,动物的思想差不多是黑匣子,而LLM就是黑匣子。”德国斯图加特大学的计算机科学家Thilo Hagendorff说,“心理学很擅长调查黑匣子。”

去年,Hagendorff发了一篇有关“机器心理”的预印本。他在其中提出,把LLM当作一个人类对象来对话,可以揭示底层简单的计算之中产生的复杂行为[3]。

2022年Google的团队进行的一项研究引入了一个叫做“思维链提示”的术语,来描述一种让LLM展示“想法”的做法。首先,用户提供一个示例问题并展示他们会如何逐步获得答案,然后再问真正的问题。这会让模型按相似的流程行事。它会输出思维链——此外,有些研究显示出,这么做更可能获得正确答案[4](见“思维链”)。

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F9d389419j00shqqfw003id200nd00r0g00it00lq.jpg&thumbnail=660x2147483647&quality=80&type=jpg

但是,计算机科学家Sam Bowman(就职于纽约大学和Anthropic)和同事们去年表明,思维链可能并未可靠地解释模型做了什么[5]。

研究者们首先故意向研究的模型引入偏误,例如给了一系列回答总是A的选择题。团队之后会问一个测试问题。模型通常会回答A——无论正确与否——但几乎从不会说它们这么选是因为“答案总是A”。相反,它们会编出一些带来这些回答的“逻辑”——跟人一样,无论是有意还是无意[5](见“虚假逻辑”)。

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F32797de7j00shqqfx0029d200ng00nsg00it00j2.jpg&thumbnail=660x2147483647&quality=80&type=jpg

https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F0805%2F2b2489b0j00shqqfy003id200n600mjg00if00hw.jpg&thumbnail=660x2147483647&quality=80&type=jpg

 

大脑扫描

 

其他研究者在从神经科学中获得灵感来探索LLM的内部机制。为了研究聊天机器人如何骗人,美国卡内基梅隆大学的计算机科学家Andy Zou和他的同事们询问了LLM并检查了它的“神经元”激活状态。“我们所做的事就像对人类进行神经扫描。”Zou说。它也有点像设计测谎仪。

研究者们告诉LLM好几次让它们撒谎或是讲真话,并测量了神经活动中模式的区别,制造出了一套诚实度的数学表达。之后,当它们问模型一个新问题的时候,他们就会看它的活动并估算它是否诚实——在简单的测谎任务中有超过90%的准确度。Zou说这套系统可以用来实时检测LLM的谎言,但他想先看到它的准确度再提高一点。

研究者们进一步进行调整,干涉模型的行为,在问问题的时候将诚实的模式引入活跃的神经元中,强化了它的诚实度。他们对其他一些概念也进行了类似的流程:他们可以让模型更多或更少地快乐、无害、性别歧视或追求权力等等[6]。

Bau和同事们还设计了方法来扫描并编辑AI神经网络,其中包括了他们称为因果追踪的一种技术。这里的概念就是给模型一个输入,类似于“乔丹的运动项目是……”,让它回答“篮球”,然后再给个别的输入,比如“谁谁谁的运动项目是……”,然后再看它输出些别的。这样他们就可以从第一个问题中取得内部的活跃信息,然后不同程度地恢复它,直到模型对第二个问题也回答“篮球”,从而观察神经网络中哪部分对这一回答至关重要。换言之,研究者们想要识别出AI的哪部分“大脑”让它给出特定的答案。

团队开发了一种方法,通过调节特定参数来编辑模型的知识——以及另一种方法可以批量编辑模型的知识[7]。团队说,这些方法在你想修正错误或过时的知识又不想重新训练整个模型的时候会很方便。这些编辑非常精细(它并不会影响到关于其他运动员的知识),同时可以很好地扩展(即使改变措辞来问问题,编辑也能影响答案)。

人工神经网络有个好地方是,我们可以做一些神经科学家只能想想的实验。”Bau说,“我们可以调查每一个神经元,我们可以把神经网络重跑几百万次,我们可以把各种疯狂的测量和干涉做到底。而且我们不需要签同意书。”他说,这项工作也获得了神经科学家的注意,他们希望能获得对生物大脑的见解。

北卡罗来纳大学教堂山校区的计算机科学家Peter Hase认为,因果追踪能提供信息,但还没有揭示全貌。他的研究显示,即使编辑那些因果追踪出的神经元以外的层,也可以改变模型的回复。这不是人们想要的[8]。

 

运作机制

 

很多扫描LLM的技术——包括Zou和Bau的研究——都采用自上而下的做法,为概念或知识寻找底层神经表现的归因。另一些人则采用自下而上的做法:检查神经元,然后问它们代表什么。

Anthropic的一个团队于2023年发表的论文获得了一些关注,因为它提出了一种精细方法在单神经元的层级理解LLM。研究者们调查了一个很小的AI,只有一个transformer层(大的LLM会有十几层)。当他们研究一个包含512个神经元的子层时,他们发现每个神经元都是“多义”的——会对很多样的输入产生反馈。通过在每个神经元激活时进行映射,就发现这512个神经元的行为可以用一套4096个虚拟神经元来描述,每个虚拟神经元都会因一个特定的概念亮起来。实际上,在这512个多功能的神经元之中包含了数千个虚拟神经元,其中每个都有更单一的角色,负责处理一项工作。

这都是让人感到激动,能看到希望的研究”,让人能看到AI的运作机制,Hase说,“就好像我们能把它拆解开,把所有齿轮摊在地上一样。”Anthropic的共同创始人Chris Olah说。

但是研究小模型就有点像通过研究果蝇来理解人类。虽然有价值,Zou说,但想要解释AI行为中更复杂的那些方面,这种做法就没那么合适了。

 

强制解释

 

虽然研究者们还在努力研究清AI在做什么,现在已经逐渐出现一种共识,公司应当至少尝试为模型提供解释——而监管部门应当到位执行。

一些法规确实要求算法是可解释的。例如,欧盟的AI法规要求“高风险的AI系统”的可解释性,比如远程进行生物识别、执法,或是访问教育、雇佣或公共服务的系统。Wachter说LLM并未分类为高风险,或能绕开可解释性的法律要求,除非有特定用途。

但这并不应让LLM的制作者彻底脱身,Bau说,他对于某些公司——例如ChatGPT背后的OpenAI——对最大的模型保密一事感到不满。OpenAI告诉《自然》,这是出于安全考虑,或许是为了防止恶意之徒利用模型的执行细节来获利。

OpenAI和Anthropic等公司都在XAI领域内做出了巨大的贡献。例如,2023年OpenAI发布了一篇研究,使用它最新的AI模型GPT-4,尝试从神经元层面解释早期模型GPT-2给出的回复。不过,还需要更多研究来解读聊天机器人的工作原理,而有些研究者认为发布LLM的公司应当确保这一点。“总有人要负责做研究,或促成科学研究。”Bau说,“才能不至于走向不负责任的乱摊子。”

 

参考文献:

1.Grosse, R. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2308.03296 (2023).

2.Li, K. et al. in Proc. Int. Conf. Learn. Represent. 2023 (ICLR, 2023); available at https://openreview.net/forum?id=DeG07_TcZvT

3.Hagendorff, T. Preprint at arXiv https://doi.org/10.48550/arXiv.2303.13988 (2023).

4.Wei, J. et al. in Adv. Neural Inf. Process. Syst. 35 (eds Koyejo, S. et al.) 24824–24837 (Curran Associates, 2022); available at https://go.nature.com/3us888x

5.Turpin, M., Michael, J., Perez, E. & Bowman, S. R. Preprint at arXiv https://doi.org/10.48550/arXiv.2305.04388 (2023).

6. Zou, A. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2310.01405 (2023).

7.Meng, K., Sharma, A. S., Andonian, A. J., Belinkov, Y. & Bau, D. in Proc. Int. Conf. Learn. Represent. 2023 (ICLR, 2023); available at https://openreview.net/forum?id=MkbcAHIYgyS

8.Hase, P., Bansal, M., Kim, B. & Ghandeharioun, A. Preprint at arXiv https://doi.org/10.48550/arXiv.2301.04213 (2023).

原文以How does ChatGPT ‘think’? Psychology and neuroscience crack open AI large language models标题发表在2024年5月14日《自然》的新闻特写版块上

 

2024-08-15
一篇有关“机器心理”的预印本。他在其中提出,把LLM当作一个人类对象来对话,可以揭示底层简单的计算之中产生的复杂行为。Google的研究引入“思维链提示”,来描述一种让LLM展示“想法”的做法,会让模型按相似的流程行事。它会输出思维链,这么做更可能获得正确答案

像研究人类一样研究ChatGPT

image