科學(xué)家正傳授人工智能自我解釋能力
一支由多國研究人員組成的科研團隊近期開始向人工智能傳授自我判斷和解釋的能力,并指出做出這個決定的依據(jù)和理由!昂诤小闭兊猛该,這對于人工智能領(lǐng)域來說無疑是重大事件。 在人工智能領(lǐng)域搞清楚神經(jīng)網(wǎng)絡(luò)為何做出這些決定是眾多科研專家攻克的方向,黑盒問題本質(zhì)上就是我們真的信任人工智能系統(tǒng)。 該團隊來自伯克利大學(xué)、阿姆斯特丹大學(xué)、MPI for Informatics以及Facebook的人工智能研究部門,他們的研究建立在此前的工作基礎(chǔ)上,只不過這次他們向人工智能傳授了新的技巧。 所謂“黑盒子”,是指從用戶的觀點來看一個器件或產(chǎn)品時,并不關(guān)心其內(nèi)部構(gòu)造和原理,而只關(guān)心它的功能及如何使用這些功能。但從研究者的角度講,搞清楚內(nèi)部構(gòu)造和原理是必須的。 |