訂閱
糾錯
加入自媒體

嫌棄ChatGPT數(shù)學(xué)太差,學(xué)而思曝自研數(shù)學(xué)大模型!

ChatGPT數(shù)學(xué)太差了,數(shù)學(xué)AI還得看學(xué)而思!

 嫌棄ChatGPT數(shù)學(xué)太差,學(xué)而思曝自研數(shù)學(xué)大模型!

跟自帶流量出道即巔峰的選秀新星一樣,ChatGPT一誕生就被全世界追捧,被競相效仿。誰都想借著這股東風(fēng),扶搖直上。各大科技公司聞風(fēng)而動,陸續(xù)推出了相近的LLMs(大語言模型),一方面不愿甘居人后,錯過風(fēng)口;一方面博出位,以便推動他們各自的核心業(yè)務(wù)。逐漸地,各行各業(yè)都開始參與其中。

現(xiàn)在輪到教育行業(yè)了!5月5日的消息,學(xué)而思正在進(jìn)行自研數(shù)學(xué)大模型的開發(fā)工作,他們把這個數(shù)學(xué)大模型叫做MathGPT。MathGPT主攻數(shù)學(xué)領(lǐng)域的解題和講題算法,主要面向全球數(shù)學(xué)愛好者和科研機(jī)構(gòu)。

據(jù)學(xué)而思透露,MathGPT為公司核心項目,由CTO田密負(fù)責(zé)。今年春節(jié)前,已啟動相應(yīng)的團(tuán)隊建設(shè)、數(shù)據(jù)、算力準(zhǔn)備和技術(shù)研發(fā),目前已取得階段性成果。此外,還將成立一支海外算法和工程團(tuán)隊,在全球范圍內(nèi)招募優(yōu)秀的人工智能專家加入。

類ChatGPT們數(shù)學(xué)太差,學(xué)而思只好出手

像雨后春筍般涌現(xiàn)的大語言模型,在語言翻譯、摘要、理解和生成等任務(wù)上都有了接近“人”的水平,甚至有些地方比人的水平更高。

但是,唯獨(dú)在數(shù)學(xué)這塊上,無論是強(qiáng)如GPT—4、Bingchat,還是更年輕的文心一言、天工、式說3.0,或者是基于LLaMA開源而來的各類LLMs都表現(xiàn)得像智力“未開化”一樣。簡單的數(shù)學(xué)問題能答,稍微復(fù)雜一點(diǎn)就會自己把自己繞暈。有些題能做出正確答案,但是解題過程讓人看得一頭霧水。

 嫌棄ChatGPT數(shù)學(xué)太差,學(xué)而思曝自研數(shù)學(xué)大模型!

更別說什么幾何代數(shù)、線性代數(shù)了,難為AI嘛這不是!用學(xué)而思的話來說,“通用語言模型更像一個‘文科生’”。

“這種不足是由LLM的自身特點(diǎn)決定的。”學(xué)而思AI團(tuán)隊負(fù)責(zé)人介紹,LLM來自對海量語言文本的訓(xùn)練,因此最擅長語言處理。行業(yè)內(nèi)偏向基于LLM大模型做閱讀、寫作類應(yīng)用,但如果想要在數(shù)學(xué)能力上有突破,就需要研發(fā)新的大模型。

學(xué)而思希望通過MathGPT彌補(bǔ)和攻克大語言模型的三個問題:第一,題目要解對,現(xiàn)在GPT結(jié)果經(jīng)常出現(xiàn)錯誤;第二,解題步驟要穩(wěn)定、清晰,現(xiàn)在GPT的解題步驟每次都不一樣,而且生成內(nèi)容經(jīng)常很冗余;第三,解題要講的有趣、個性化,現(xiàn)在GPT的解釋過于“學(xué)術(shù)”和機(jī)械,對孩子的學(xué)習(xí)體驗很不友好。

謀而后動。學(xué)而思能有這樣的底氣,一方面因為他們“靠數(shù)學(xué)起家”,另一方面由于他們在AI領(lǐng)域布局良久。早在2017年,學(xué)而思便成立了AI lab 人工智能實驗室。到目前為止,學(xué)而思已有20年的數(shù)學(xué)教學(xué)經(jīng)驗,積累了龐大的數(shù)學(xué)相關(guān)數(shù)據(jù),用來訓(xùn)練數(shù)學(xué)模型水到渠成。

大勢所趨,教育行業(yè)擁抱AI

近日,美國在線教育龍頭Chegg股價幾近“腰斬”,暴跌50%!只是因為該公司CEO在不久前的財報電話會議上承認(rèn),“ChatGPT正開始從在線學(xué)習(xí)平臺Chegg手中奪取市場份額”。據(jù)統(tǒng)計,今年3月以來,學(xué)生對ChatGPT的興趣大增,對Chegg的產(chǎn)品興趣則減少。

而就在今年3月,Chegg宣布推出自己的人工智能聊天機(jī)器人CheggMate,由OpenAI最新、最先進(jìn)的人工智能模型GPT-4支持。CheggMate可以隨時隨地回答學(xué)生的問題,且能保證準(zhǔn)確性;還能針對不同的學(xué)生提供相應(yīng)的測試。此外,CheggMate還可以跟學(xué)生交互,學(xué)生可以不斷追問,它會給出相應(yīng)的解釋。

 嫌棄ChatGPT數(shù)學(xué)太差,學(xué)而思曝自研數(shù)學(xué)大模型!

除了Chegg,同為教育領(lǐng)域的美國在線教育公司多鄰國(Duolingo)、可汗學(xué)院、Speak在此之前已經(jīng)宣布接入OpenAI GPT—4,用以提升用戶體驗和提高教學(xué)工作效率以及學(xué)習(xí)效果。

2月份的時候,網(wǎng)易有道開始了AIGC(AI Generated Content人工智能自動生成內(nèi)容)在教育場景的落地研發(fā)工作。在學(xué)而思宣布MathGPT的同一天,網(wǎng)易有道也公布了基于“子曰”大模型開發(fā)的AI口語老師相關(guān)視頻。據(jù)介紹,“子曰”為該網(wǎng)易有道自研的教育場景下的類ChatGPT模型,基于其研發(fā)的AI口語老師不同于以往機(jī)械發(fā)音的AI,其發(fā)音更像一個真實的老師。

在今天舉行的訊飛星火認(rèn)知大模型成果發(fā)布會上,科大訊飛正式宣布推出“訊飛星火認(rèn)知大模型”?拼笥嶏w董事長劉慶峰表示,星火認(rèn)知大模型在多題型可解析數(shù)學(xué)能力上已領(lǐng)先ChatGPT。同時,推出首款搭載星火大模型的AI學(xué)習(xí)機(jī)T20pro。

 嫌棄ChatGPT數(shù)學(xué)太差,學(xué)而思曝自研數(shù)學(xué)大模型!

還有鉛筆、金太陽、高途等教育相關(guān)企業(yè)投入AI研發(fā)和運(yùn)用。

相比較之下,學(xué)而思選擇的道路和其他人有所不同,不基于現(xiàn)有LLM做微調(diào)和接口調(diào)用、不做通用LLM,而是自研基于專業(yè)領(lǐng)域的“數(shù)學(xué)大模型”MathGPT。而MathGPT較之其他的路徑孰優(yōu)孰劣,還是要看落地后的實際應(yīng)用。

教育行業(yè)基于AI,開始了新一輪的改變和進(jìn)化。教育行為中人和AI的關(guān)系也進(jìn)入到了一個全新的階段,AI能不能最終滿足教育行業(yè)的殷切期盼,還有待時間驗證。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號