三月_AI模型專題|大語言模型的運作、極限與突破(上)
人人都知道人工智慧叫AI,但你是否有聽過AGI呢?通用人工智慧(AGI)指的是能夠執行各種認知任務且具備類似人類學習與推理能力的人工智慧。與專用AI不同,AGI可適應不同環境,自主解決問題,被視為實現真正智慧機器的關鍵目標。
目前大家對於AI的了解不外乎源於最能觸手可及的大型語言模型(LLM),如ChatGPT、BERT、T5 等。其是一種深度學習模型,具有超過1,000億個參數的自然語言處理(NLP)系統,經過大量的文本訓練,使其擁有從海量的知識並具有識別、匯總、翻譯、生成文字等能力。而大多數的大語言模型皆基於Transformer架構,而這一突破性的概念源自Google於2017年發表的論文《Attention Is All You Need》。其核心原理為「自注意力機制」,可透過識別關鍵詞並計算其關聯性,進而推導整體語意。相較於傳統的 RNN/LSTM需逐步處理序列數據,Transformer能一次性
更多詳細內容,請註冊會員或登入會員登入.