精品精品国产手机自在线观|九九热思思精品视频|中文字幕aⅴ专区|黄国产成年人精品

    當(dāng)前位置:區(qū)塊鏈 >區(qū)塊鏈 > 大模型微調(diào)非得依賴人類數(shù)據(jù)嗎?DeepMind:用帶反饋的自訓(xùn)練更好

    大模型微調(diào)非得依賴人類數(shù)據(jù)嗎?DeepMind:用帶反饋的自訓(xùn)練更好

    更新時間:2023-12-26 13:09:00 | 作者:佚名
    面對當(dāng)前微調(diào)大模型主要依賴人類生成數(shù)據(jù)的普遍做法,谷歌DeepMind探索出了一種減少這種依賴的更高效方法。 原文來源:機(jī)器之心 圖片來源:由無界AI生成 如你我所見,大語言模型(LLM)正在改變深度學(xué)習(xí)的格局,在生成人類質(zhì)量的文本和解決各種語言任務(wù)方面展現(xiàn)出了卓越的能力。雖然業(yè)界通過對人類收集的數(shù)據(jù)進(jìn)行監(jiān)督微調(diào)進(jìn)一步提升了在具體任務(wù)上的性能,但獲取高質(zhì)量...
    面對當(dāng)前微調(diào)大模型主要依賴人類生成數(shù)據(jù)的普遍做法,谷歌 DeepMind 探索出了一種減少這種依賴的更高效方法。

    原文來源:機(jī)器之心

    圖片來源:由無界 AI生成

    如你我所見,大語言模型(LLM)正在改變深度學(xué)習(xí)的格局,在生成人類質(zhì)量的文本和解決各種語言任務(wù)方面展現(xiàn)出了卓越的能力。雖然業(yè)界通過對人類收集的數(shù)據(jù)進(jìn)行監(jiān)督微調(diào)進(jìn)一步提升了在具體任務(wù)上的性能,但獲取高質(zhì)量人類數(shù)據(jù)卻面臨著重大瓶頸。這對于要解決復(fù)雜問題的任務(wù)來說尤為明顯,需要大量資源和專業(yè)知識。

    怎么解決呢?模型生成得合成數(shù)據(jù)是一種有潛力的替代方案,只要能保證數(shù)據(jù)的質(zhì)量,就能實(shí)現(xiàn)可擴(kuò)展性和成本效益。

    雖然 LLM 能夠自我評估生成的數(shù)據(jù),但在本文中,谷歌 DeepMind 探索了一種更簡單的設(shè)置,將外部標(biāo)量反饋信號用作每個生成樣本的質(zhì)量指標(biāo)。

    論文地址:https://arxiv.org/pdf/2312.06585.pdf

    為了研究在模型生成數(shù)據(jù)上的訓(xùn)練,研究者考慮了一種簡單但強(qiáng)大的語言模型自訓(xùn)練方法,僅需要兩項(xiàng)功能,一是基于模型生成樣本,二是利用評分機(jī)制對這些樣本進(jìn)行評估。

    為了確保清晰度和一致性,研究者采用了一種強(qiáng)化自訓(xùn)練方法 ReST^

    本站提醒:投資有風(fēng)險,入市須謹(jǐn)慎,本內(nèi)容不作為投資理財建議。