AI是如何模擬人類擁有「容錯率」的? # # # 從Language Model開始聊起,LM不同於一般的語音直接轉文字,LM可以以前後文的意義來去推測這裡應該放哪個詞比較合理。而這跟容錯率有何關係? 既然LM可以理解前後文的「意義」,那麼就代表LM可以真正的理解某個詞是什麼意思,並且理解那些詞是比較接近的。 那麼,該如何讓LM能讀懂?據我所知,LM是將每一個詞都標上數字,透過 |A詞-B詞| (也就是A詞與B詞之間的「距離」)來判斷A詞與B詞之間的相關性有多麼高,相距越短代表意義越近。