公元前6世紀(jì)的古希臘先賢畢達(dá)哥拉斯(Pythagoras)提出“萬物皆數(shù)”,認(rèn)為數(shù)是宇宙萬物的本原。那么是否跟物理規(guī)律類似,人類復(fù)雜的行為和認(rèn)知背后,也存在某些基本的數(shù)學(xué)和計(jì)算原理?計(jì)算認(rèn)知神經(jīng)科學(xué)致力于回答這個(gè)問題。 圖1 計(jì)算認(rèn)知神經(jīng)科學(xué)的目標(biāo)是通過生物學(xué)上可信的計(jì)算模型來解釋動(dòng)物和人類神經(jīng)元活動(dòng)和行為,從歷史上看,每個(gè)學(xué)科(圓圈)都解決了這些挑戰(zhàn)的一個(gè)子集(白色標(biāo)簽),計(jì)算認(rèn)知神經(jīng)科學(xué)力求同時(shí)應(yīng)對所有挑戰(zhàn)。 從實(shí)驗(yàn)到理論 從計(jì)算層面理解大腦活動(dòng)的另外一種途徑是揭示每個(gè)腦區(qū)呈現(xiàn)了什么信息。簡而言之,解碼模型能夠檢測出兩種刺激中的哪一種產(chǎn)生了我們所測量到的激活模式3。表征的內(nèi)容可以是識(shí)別感覺刺激(從一組備選的刺激中識(shí)別)、感知刺激的屬性(如光柵的朝向)或者是認(rèn)知操作和行為過程中所需要的抽象變量4。 解碼模型和其他類型的多變量模式分析方法有助于揭示區(qū)域所表征的具體內(nèi)容5–8。然而,解碼特定信息的能力并不代表解釋了完整的神經(jīng)編碼過程:它沒有指定表示格式(線性解碼之外)或可能出現(xiàn)的其他信息。最重要的是,解碼器通常不構(gòu)成大腦計(jì)算的模型。 表征模型(Representational Models) 相較于解碼模型,該模型希望更詳盡的描述腦區(qū)的表征,解釋其對任意刺激的響應(yīng)。當(dāng)然,一個(gè)完整的解釋也依賴于可解碼的變量范圍,表征模型試圖做關(guān)于表征空間的綜合預(yù)測,因此該模型比解碼模型更多的受到計(jì)算理論的約束9,10。 目前有三種類型的表征模型:編碼模型(EM)11–13,模式成分模型(PCM)14和表征相似性分析(RSA)15–17,這三種方法都用于檢驗(yàn)表征空間的假設(shè)。編碼模型,刺激間每個(gè)體素的激活被預(yù)測為模型中特征的線性組合;模式成分模型,描述表征空間的激活分布被模擬成一個(gè)多變量正態(tài)分布;表征相似性分析模型,表征空間被描述為由刺激誘發(fā)的激活模式的表征相異性。 從理論到實(shí)驗(yàn) 為了建立理論和實(shí)驗(yàn)間更好的橋梁,我們首先需要一個(gè)明確的理論,這可以通過定義一個(gè)數(shù)學(xué)理論以及在計(jì)算模型中執(zhí)行它們來實(shí)現(xiàn)。計(jì)算模型可以存在于不同的描述級別,在認(rèn)知保真性和生物保真性間權(quán)衡(圖2)。 如果模型僅考慮神經(jīng)元成分和動(dòng)態(tài)性,則可能難以解釋認(rèn)知加工過程(水平軸);相反,如果模型僅考慮認(rèn)知功能,則可能很難和大腦活動(dòng)聯(lián)系起來(垂直軸)。為了連接認(rèn)知和大腦,模型的建立必須同時(shí)考慮行為數(shù)據(jù)(反應(yīng)認(rèn)知過程)和神經(jīng)動(dòng)態(tài)兩個(gè)層面18,19。 圖2 大腦信息加工過程的模型可以在不同描述層次上定義,它們的參數(shù)復(fù)雜度(點(diǎn)大小)、生物(水平軸)和認(rèn)知(垂直軸)保真度也可能不同。自下而上建模方法(藍(lán)色箭頭)首先捕捉生物神經(jīng)網(wǎng)絡(luò)的特征,如動(dòng)作電位和單個(gè)神經(jīng)元之間的相互作用,但這種方法忽略了認(rèn)知功能。自上而下方法(紅色箭頭)的目標(biāo)首先是在算法級捕獲認(rèn)知功能,這種方法不考慮生物實(shí)現(xiàn),而是將信息處理底層任務(wù)性能分解為算法組件。這兩種方法形成了通往解釋大腦如何產(chǎn)生思維這一共同目標(biāo)的兩個(gè)極端??偟膩碚f,認(rèn)知和生物保真度之間存在權(quán)衡(負(fù)相關(guān))。由于智力需要豐富的外部世界知識(shí),因而人腦信息處理模型的參數(shù)復(fù)雜度較高(右上角的大點(diǎn))。 該圖是概念圖,并不是基于對認(rèn)知保真度、生物保真度和模型復(fù)雜性的定量測量,目前還沒有確定的方法來衡量這三個(gè)變量,但可以幫助我們理解模型之間的關(guān)系,并理解它們的互補(bǔ)貢獻(xiàn)。 在這個(gè)部分,我們來集中討論近期執(zhí)行任務(wù)計(jì)算模型上的成功,這些模型能夠在表征和算法上解釋人類認(rèn)知功能。執(zhí)行任務(wù)模型一直是心理物理學(xué)和認(rèn)知科學(xué)的核心,它們通常在行為數(shù)據(jù)上驗(yàn)證,最近也開始用腦活動(dòng)數(shù)據(jù)來驗(yàn)證。我們將依次考慮這兩大類模型,神經(jīng)網(wǎng)絡(luò)模型和認(rèn)知模型。 神經(jīng)網(wǎng)絡(luò)模型(Neural network models) 和大腦一樣,神經(jīng)網(wǎng)絡(luò)模型可以執(zhí)行前饋和循環(huán)計(jì)算,包括多層的線性-非線性信號變換,一般有數(shù)百萬個(gè)參數(shù)(連接權(quán)重),通過調(diào)參不斷優(yōu)化任務(wù)執(zhí)行表現(xiàn)20,21。 近期的研究已經(jīng)開始將神經(jīng)網(wǎng)絡(luò)模型作為腦信息處理模型來進(jìn)行驗(yàn)證20,22。這些研究利用訓(xùn)練有素的深度卷積神經(jīng)網(wǎng)絡(luò)模型來識(shí)別圖像中物體,預(yù)測了靈長類動(dòng)物的腹側(cè)視覺區(qū)在面對新異圖像時(shí)的大腦表征,結(jié)果表明,深度神經(jīng)網(wǎng)絡(luò)的內(nèi)部表征是當(dāng)前符合人類和猴子顳下回視覺圖像表征的最佳模型23–25。 認(rèn)知模型(Cognitive Models) 目前有三類認(rèn)知模型:產(chǎn)生式系統(tǒng),強(qiáng)化學(xué)習(xí)模型和貝葉斯認(rèn)知模型。 產(chǎn)生式系統(tǒng)(production systems)提供了用于解釋推理和問題解決的早期模型。一個(gè)“產(chǎn)生式系統(tǒng)”(production)是根據(jù)if-then規(guī)則促發(fā)的認(rèn)知行為,一組規(guī)則指定了某種條件下(“if”)對應(yīng)該執(zhí)行的動(dòng)作(“then”)。特定的條件涉及當(dāng)前的目標(biāo)及記憶中知識(shí),對應(yīng)的動(dòng)作能夠修改目標(biāo)和知識(shí)的內(nèi)部狀態(tài)26。 強(qiáng)化學(xué)習(xí)模型(Reinforcement learning models)捕獲agent如何通過與環(huán)境互動(dòng)來學(xué)習(xí)最大化累積獎(jiǎng)勵(lì),選擇某種行動(dòng),觀察環(huán)境的結(jié)果狀態(tài),在這個(gè)過程中獲得獎(jiǎng)勵(lì)進(jìn)而學(xué)習(xí)如何提高該行為的發(fā)生率,該agent可能學(xué)習(xí)了每種狀態(tài)與其期待的累積獎(jiǎng)勵(lì)相關(guān)聯(lián)的“價(jià)值函數(shù)”27。強(qiáng)化學(xué)習(xí)理論根源于心理學(xué)和神經(jīng)科學(xué),目前已經(jīng)是機(jī)器學(xué)習(xí)和人工智能的重要理論,包括動(dòng)態(tài)規(guī)劃(DP),蒙特卡羅學(xué)習(xí)(Monte-Carlo learning)和窮舉搜索(Exhaustive Search)等算法 28。 貝葉斯模型(Bayesian models),指的是根據(jù)概率規(guī)則將當(dāng)前數(shù)據(jù)與先前經(jīng)驗(yàn)相結(jié)合的推理模型,它有助于我們理解基本的感知覺和運(yùn)動(dòng)加工過程29–31,也提供了對判斷和決策等更高的認(rèn)知過程的見解,將經(jīng)典認(rèn)知偏差解釋為先前假設(shè)的產(chǎn)物32,從貝葉斯認(rèn)知的視角來看,人類思維從嬰兒時(shí)期開始構(gòu)建關(guān)于世界的心智模型33。這些模型不僅可以是概率意義上的生成模型,而且可能是有因果性和組合性的,能夠通過重新組合元素來將這種模擬推廣到新的假設(shè)的場景33–35,這種建模方法已經(jīng)應(yīng)用于我們對物理34,36,37乃至社會(huì)世界38的推理。 展望未來 Marr提出理解復(fù)雜生物系統(tǒng)需要經(jīng)過三層分析:計(jì)算水平;表征和算法水平;神經(jīng)生物學(xué)水平。認(rèn)知科學(xué)開始于計(jì)算水平,將認(rèn)知功能分解各個(gè)成分,進(jìn)而從自上而下的角度發(fā)展算法和表征。計(jì)算神經(jīng)科學(xué)從自下而上的角度出發(fā),將神經(jīng)元構(gòu)建塊組合成表征和算法。人工智能通過建立表征和算法來將簡單的成分組合成復(fù)雜的智能。這三個(gè)學(xué)科匯聚在大腦和認(rèn)知的算法和表征上,進(jìn)而產(chǎn)生了互補(bǔ)約束。 在20瓦的電力預(yù)算下,大腦的算法將統(tǒng)計(jì)和計(jì)算效率結(jié)合起來,其方式超出了當(dāng)前的人工智能,無論是貝葉斯算法還是神經(jīng)網(wǎng)絡(luò)算法。不過最近在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域已經(jīng)開始探索貝葉斯推理和神經(jīng)網(wǎng)絡(luò)模型之間的交叉路口,將前者的統(tǒng)計(jì)優(yōu)勢(不確定性表征、概率推理、統(tǒng)計(jì)效率)與后者的計(jì)算優(yōu)勢(表征學(xué)習(xí)、萬能近似定理、計(jì)算效率)相結(jié)合39–41。 對心智和大腦的研究正進(jìn)入一個(gè)特別令人興奮的階段,如果認(rèn)知科學(xué)、計(jì)算神經(jīng)科學(xué)和人工智能能夠結(jié)合起來,我們或許能夠用神經(jīng)生物學(xué)上可信的計(jì)算模型來解釋人類的認(rèn)知,這不僅有助于我們更深刻的理解人腦信息加工的具體過程,也能在一定程度上為人工智能算法的發(fā)展提供有益啟示。 Nikolaus Kriegeskorte & Pamela K. Douglas. Cognitive computational neuroscience.Nature Neuroscience volume 21, pages1148–1160 (2018) 1. Biswal B, Zerrin Yetkin F, Haughton VM, Hyde JS. Functional connectivity in the motor cortex of resting human brain using echo‐planar MRI. Magn Reson Med. 1995;34(4):537-541. 2. Friston K. Dynamic causal modeling and Granger causality Comments on: The identification of interacting networks in the brain using fMRI: Model selection, causality and deconvolution. Neuroimage. 2011;58(2-2):303. 3. Dayan P, Abbott LF, Abbott L. Theoretical neuroscience: computational and mathematical modeling of neural systems. 2001. 4. Jin X, Costa RM. Shaping action sequences in basal ganglia circuits. Curr Opin Neurobiol. 2015;33:188-196. 5. Norman KA, Polyn SM, Detre GJ, Haxby J V. Beyond mind-reading: multi-voxel pattern analysis of fMRI data. Trends Cogn Sci. 2006;10(9):424-430. 6. Tong F, Pratte MS. Decoding patterns of human brain activity. Annu Rev Psychol. 2012;63:483-509. 7. Haxby J V, Connolly AC, Guntupalli JS. Decoding neural representational spaces using multivariate pattern analysis. Annu Rev Neurosci. 2014;37:435-456. 8. Haynes J-D. A primer on pattern-based approaches to fMRI: principles, pitfalls, and perspectives. Neuron. 2015;87(2):257-270. 9. Naselaris T, Kay KN. Resolving ambiguities of MVPA using explicit models of representation. Trends Cogn Sci. 2015;19(10):551-554. 10. Diedrichsen J, Kriegeskorte N. Representational models: A common framework for understanding encoding, pattern-component, and representational-similarity analysis. PLoS Comput Biol. 2017;13(4):e1005508. 11. Dumoulin SO, Wandell BA. Population receptive field estimates in human visual cortex. Neuroimage. 2008;39(2):647-660. 12. Kay KN, Naselaris T, Prenger RJ, Gallant JL. Identifying natural images from human brain activity. Nature. 2008;452(7185):352. 13. Mitchell TM, Shinkareva S V, Carlson A, et al. Predicting human brain activity associated with the meanings of nouns. Science (80- ). 2008;320(5880):1191-1195. 14. Diedrichsen J, Ridgway GR, Friston KJ, Wiestler T. Comparing the similarity and spatial structure of neural representations: a pattern-component model. Neuroimage. 2011;55(4):1665-1678. 15. Nili H, Wingfield C, Walther A, Su L, Marslen-Wilson W, Kriegeskorte N. A toolbox for representational similarity analysis. PLoS Comput Biol. 2014;10(4):e1003553. 16. Kriegeskorte N, Mur M, Bandettini PA. Representational similarity analysis-connecting the branches of systems neuroscience. Front Syst Neurosci. 2008;2:4. 17. Kriegeskorte N, Kievit RA. Representational geometry: integrating cognition, computation, and the brain. Trends Cogn Sci. 2013;17(8):401-412. 18. Eliasmith C, Trujillo O. The use and abuse of large-scale brain models. Curr Opin Neurobiol. 2014;25:1-6. 19. Markram H. The blue brain project. Nat Rev Neurosci. 2006;7(2):153. 20. Kriegeskorte N. Deep neural networks: a new framework for modeling biological vision and brain information processing. Annu Rev Vis Sci. 2015;1:417-446. 21. Goodfellow I, Bengio Y, Courville A. Deep Learning. MIT press; 2016. 22. Yamins DLK, DiCarlo JJ. Using goal-driven deep learning models to understand sensory cortex. Nat Neurosci. 2016;19(3):356. 23. Cadieu CF, Hong H, Yamins DLK, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition. PLoS Comput Biol. 2014;10(12):e1003963. 24. Khaligh-Razavi S-M, Kriegeskorte N. Deep supervised, but not unsupervised, models may explain IT cortical representation. PLoS Comput Biol. 2014;10(11):e1003915. 25. Yamins DLK, Hong H, Cadieu CF, Solomon EA, Seibert D, DiCarlo JJ. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proc Natl Acad Sci. 2014;111(23):8619-8624. 26. Moore C, Mertens S. The Nature of Computation. OUP Oxford; 2011. 27. Sutton RS, Barto AG. Reinforcement Learning: An Introduction. MIT press; 2018. 28. O’Doherty JP, Cockburn J, Pauli WM. Learning, Reward, and Decision Making. Annu Rev Psychol. 2017;68:73-100. doi:10.1146/annurev-psych-010416-044216 29. Ernst MO, Banks MS. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 2002;415(6870):429. 30. Weiss Y, Simoncelli EP, Adelson EH. Motion illusions as optimal percepts. Nat Neurosci. 2002;5(6):598. 31. K?rding KP, Wolpert DM. Bayesian integration in sensorimotor learning. Nature. 2004;427(6971):244. 32. Tversky A, Kahneman D. Judgment under uncertainty: Heuristics and biases. Science (80- ). 1974;185(4157):1124-1131. 33. Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ. Building machines that learn and think like people. Behav Brain Sci. 2017;40. 34. Ullman TD, Spelke E, Battaglia P, Tenenbaum JB. Mind games: Game engines as an architecture for intuitive physics. Trends Cogn Sci. 2017;21(9):649-665. 35. Tenenbaum JB, Kemp C, Griffiths TL, Goodman ND. How to grow a mind: Statistics, structure, and abstraction. Science (80- ). 2011;331(6022):1279-1285. 36. Battaglia PW, Hamrick JB, Tenenbaum JB. Simulation as an engine of physical scene understanding. Proc Natl Acad Sci. 2013;110(45):18327-18332. 37. Kubricht JR, Holyoak KJ, Lu H. Intuitive physics: Current research and controversies. Trends Cogn Sci. 2017;21(10):749-759. 38. Pantelis PC, Baker CL, Cholewiak SA, et al. Inferring the intentional states of autonomous virtual agents. Cognition. 2014;130(3):360-379. 39. Gal Y, Ghahramani Z. Dropout as a bayesian approximation: Representing model uncertainty in deep learning. In: International Conference on Machine Learning. ; 2016:1050-1059. 40. Rezende DJ, Mohamed S, Danihelka I, Gregor K, Wierstra D. One-shot generalization in deep generative models. arXiv Prepr arXiv160305106. 2016. 41. Kingma DP, Welling M. Auto-encoding variational bayes. arXiv Prepr arXiv13126114. 2013. 作者信息 編譯作者:湯晴(brainnews創(chuàng)作團(tuán)隊(duì)) 校對:Simon(brainnews編輯部) 題圖:timeshighereducation.com 前 文 閱 讀 1,厲害了:腦科學(xué)領(lǐng)域獲批國自然2個(gè)千萬級項(xiàng)目,23個(gè)300萬的重點(diǎn)項(xiàng)目! |
|