亚洲综合日韩精品欧美综合区,日韩国产在线一区,久久久精品一二三区,午夜精品久久久久久中宇69,国产做爰一区二区三区视频,aa天堂,三级在线视频

一種AI平臺的AI語音速率調(diào)整方法及系統(tǒng)與流程

文檔序號:42294788發(fā)布日期:2025-06-27 18:30閱讀:7來源:國知局

本發(fā)明涉及自然語言處理,更具體地說,本發(fā)明涉及一種ai平臺的ai語音速率調(diào)整方法及系統(tǒng)。


背景技術(shù):

1、隨著人工智能技術(shù)的快速發(fā)展,ai語音交互已成為人機交互的重要方式,廣泛應(yīng)用于智能助手、客服系統(tǒng)、教育平臺等多個領(lǐng)域。然而,現(xiàn)有ai語音交互系統(tǒng)在語音速率調(diào)整方面仍存在明顯不足,難以實現(xiàn)真正的個性化體驗。

2、傳統(tǒng)的ai語音系統(tǒng)通常采用固定的語音速率設(shè)置,無法適應(yīng)不同用戶的語速偏好。雖然一些系統(tǒng)允許用戶手動調(diào)整語音速率,但這種靜態(tài)的調(diào)整方式要求用戶不斷嘗試不同設(shè)置,過程繁瑣且體驗不佳。用戶往往需要多次進(jìn)入設(shè)置界面,反復(fù)調(diào)整語音速率,直到找到相對舒適的速度,這大大降低了交互的流暢性和用戶滿意度。


技術(shù)實現(xiàn)思路

1、為了克服現(xiàn)有技術(shù)的交互的流暢性不高的問題,本發(fā)明提出了一種ai平臺的ai語音速率調(diào)整方法及系統(tǒng),用于解決上述問題。

2、本發(fā)明提供如下技術(shù)方案:

3、一種ai平臺的ai語音速率調(diào)整方法,包括:

4、獲取ai平臺中用戶與ai對話的歷史數(shù)據(jù),所述歷史數(shù)據(jù)包括用戶行為數(shù)據(jù)和用戶反饋數(shù)據(jù),其中所述用戶反饋數(shù)據(jù)分為優(yōu)、良、中和差四個等級;

5、對用戶行為數(shù)據(jù)進(jìn)行特征提取,得到對應(yīng)的行為特征;從所述歷史數(shù)據(jù)中篩選出用戶反饋為優(yōu)和良的數(shù)據(jù)子集,并提取該數(shù)據(jù)子集對應(yīng)的行為特征,形成標(biāo)準(zhǔn)特征組;

6、基于所述標(biāo)準(zhǔn)特征組,計算得到標(biāo)準(zhǔn)行為特征;

7、在ai與用戶實時對話過程中,采集當(dāng)前的用戶行為數(shù)據(jù),并對當(dāng)前的用戶行為數(shù)據(jù)進(jìn)行特征提取,得到對應(yīng)的行為特征記為實時行為特征;

8、計算所述實時行為特征與所述標(biāo)準(zhǔn)行為特征之間的特征偏差量;

9、獲取當(dāng)前ai語音的實時語音速率,并根據(jù)所述實時語音速率和所述特征偏差量,對所述ai語音速率進(jìn)行動態(tài)調(diào)整。

10、優(yōu)選的,所述用戶行為數(shù)據(jù)包括用戶說話速率、用戶停頓頻率及時長、打斷ai頻率和重復(fù)提問頻率,其中,用戶說話速率通過計算單位時間內(nèi)用戶輸入的字符數(shù)或語音識別后的字?jǐn)?shù)獲??;用戶停頓頻率及時長通過檢測用戶語音輸入過程中的無聲段并統(tǒng)計其出現(xiàn)次數(shù)和持續(xù)時間獲??;打斷ai頻率通過檢測用戶在ai語音輸出未完成時發(fā)起的語音輸入或操作行為的次數(shù)獲??;重復(fù)提問頻率,通過語義分析識別用戶連續(xù)輸入內(nèi)容中表達(dá)相同或相似意圖的次數(shù)獲取。

11、優(yōu)選的,所述對用戶行為數(shù)據(jù)進(jìn)行特征提取,得到對應(yīng)的行為特征包括:

12、對用戶說話速率數(shù)據(jù)進(jìn)行時間窗口分段,計算每個窗口內(nèi)的平均速率、速率變化標(biāo)準(zhǔn)差和速率變化趨勢,得到用戶語速特征;

13、對用戶停頓數(shù)據(jù)進(jìn)行統(tǒng)計分析,計算平均停頓時長、停頓頻率和停頓分布模式,得到用戶停頓特征;

14、對打斷ai頻率數(shù)據(jù)進(jìn)行時序分析,計算單位時間內(nèi)打斷次數(shù)和打斷時機分布,得到用戶打斷特征;

15、對重復(fù)提問頻率數(shù)據(jù)進(jìn)行模式識別,計算重復(fù)提問的時間間隔,得到用戶重復(fù)特征;

16、將所述用戶語速特征、用戶停頓特征、用戶打斷特征和用戶重復(fù)特征進(jìn)行特征向量化處理,形成用戶行為特征。

17、優(yōu)選的,所述基于標(biāo)準(zhǔn)特征組計算得到標(biāo)準(zhǔn)行為特征的步驟包括:

18、對標(biāo)準(zhǔn)特征組中的各行為特征進(jìn)行歸一化處理,使各特征值分布在相同數(shù)值區(qū)間;

19、計算歸一化后的各行為特征的均值,得到初步標(biāo)準(zhǔn)行為特征;

20、對所述初步標(biāo)準(zhǔn)行為特征進(jìn)行加權(quán)處理,其中權(quán)重系數(shù)根據(jù)對應(yīng)行為特征與用戶滿意度的相關(guān)性確定;

21、將加權(quán)處理后的特征向量作為標(biāo)準(zhǔn)行為特征。

22、優(yōu)選的,所述權(quán)重系數(shù)的獲取步驟包括:

23、從歷史數(shù)據(jù)中提取包含所有用戶反饋等級的數(shù)據(jù)樣本;

24、將用戶反饋等級按照優(yōu)、良、中和差從大到小,轉(zhuǎn)換為不同的數(shù)值分?jǐn)?shù);

25、計算每種行為特征與用戶反饋分?jǐn)?shù)的皮爾遜相關(guān)系數(shù),得到各特征的相關(guān)性強度;

26、將皮爾遜相關(guān)系數(shù)標(biāo)準(zhǔn)化處理,轉(zhuǎn)換為0到1之間的值;計算每種特征在不同反饋等級樣本中的方差比率;

27、將標(biāo)準(zhǔn)化后的相關(guān)系數(shù)與方差比率進(jìn)行加權(quán)平均,得到各特征的綜合重要性得分;

28、對綜合重要性得分進(jìn)行歸一化處理,使所有權(quán)重系數(shù)之和為1,得到最終的權(quán)重系數(shù)。

29、優(yōu)選的,所述特征偏差量的獲取步驟包括:

30、對實時行為特征進(jìn)行歸一化處理,使其與標(biāo)準(zhǔn)行為特征處于相同數(shù)值區(qū)間;

31、計算歸一化后的實時行為特征與標(biāo)準(zhǔn)行為特征之間的歐氏距離,得到特征距離值;

32、基于特征距離值計算特征方向向量,表明實時行為特征相對于標(biāo)準(zhǔn)行為特征的偏離方向;

33、根據(jù)特征方向向量和特征距離值,將特征偏差量映射到-1到1之間的范圍,其中正值表示用戶行為特征快于標(biāo)準(zhǔn)行為特征,負(fù)值表示用戶行為特征慢于標(biāo)準(zhǔn)行為特征,絕對值表示偏離程度。

34、優(yōu)選的,所述根據(jù)實時語音速率和特征偏差量對ai語音速率進(jìn)行動態(tài)調(diào)整的步驟包括:

35、獲取預(yù)設(shè)的最大語音速率和最小語音速率;

36、使用公式計算當(dāng)前語音速率在最大最小語音速率范圍內(nèi)的相對位置系數(shù)β,式中,vd為實時語音速率,vmax為最大語音速率,vmin為最小語音速率;

37、獲取特征偏差量θ;

38、當(dāng)θ為正值時,通過公式λ=(1-β)×θ,獲取速率調(diào)整系數(shù)λ;

39、當(dāng)θ為負(fù)值時,通過公式λ=β×θ,獲取速率調(diào)整系數(shù)λ;

40、通過公式vt=vd×(1+λ)計算調(diào)整后的語音速率vt;

41、將語音速率由vd平滑調(diào)整至vt。

42、本發(fā)明還提供一種ai平臺的ai語音速率調(diào)整系統(tǒng),用于實現(xiàn)一種ai平臺的ai語音速率調(diào)整方法,包括:

43、歷史數(shù)據(jù)獲取模塊,用于獲取ai平臺中用戶與ai對話的歷史數(shù)據(jù),所述歷史數(shù)據(jù)包括用戶行為數(shù)據(jù)和用戶反饋數(shù)據(jù),其中所述用戶反饋數(shù)據(jù)分為優(yōu)、良、中和差四個等級;

44、特征處理模塊,用于對用戶行為數(shù)據(jù)進(jìn)行特征提取,得到對應(yīng)的行為特征;從所述歷史數(shù)據(jù)中篩選出用戶反饋為優(yōu)和良的數(shù)據(jù)子集,并提取該數(shù)據(jù)子集對應(yīng)的行為特征,形成標(biāo)準(zhǔn)特征組;

45、標(biāo)準(zhǔn)特征計算模塊,用于基于所述標(biāo)準(zhǔn)特征組,計算得到標(biāo)準(zhǔn)行為特征;

46、實時特征采集模塊,用于在ai與用戶實時對話過程中,采集當(dāng)前的用戶行為數(shù)據(jù),并對當(dāng)前的用戶行為數(shù)據(jù)進(jìn)行特征提取,得到對應(yīng)的行為特征記為實時行為特征;

47、特征偏差分析模塊,用于計算所述實時行為特征與所述標(biāo)準(zhǔn)行為特征之間的特征偏差量;

48、語音速率調(diào)整模塊,用于獲取當(dāng)前ai語音的實時語音速率,并根據(jù)所述實時語音速率和所述特征偏差量,對所述ai語音速率進(jìn)行動態(tài)調(diào)整。

49、本發(fā)明提供了一種ai平臺的ai語音速率調(diào)整方法及系統(tǒng),具備以下有益效果:

50、首先,通過采集用戶說話速率、停頓頻率等多維行為數(shù)據(jù),建立了全面的用戶交互行為模型,避免了傳統(tǒng)方法僅依賴單一參數(shù)的局限性,能夠更準(zhǔn)確地捕捉用戶的交互習(xí)慣和偏好。其次,通過篩選用戶反饋為優(yōu)和良的數(shù)據(jù)形成標(biāo)準(zhǔn)特征組,本方案建立了以用戶滿意度為導(dǎo)向的標(biāo)準(zhǔn)行為特征模型,確保了語音速率調(diào)整的方向始終符合用戶期望,解決了傳統(tǒng)系統(tǒng)與用戶需求脫節(jié)的問題。第三,本方案能夠?qū)崟r計算用戶當(dāng)前行為特征與標(biāo)準(zhǔn)特征之間的偏差量,準(zhǔn)確判斷用戶行為是快于還是慢于標(biāo)準(zhǔn)特征,并據(jù)此自動調(diào)整ai語音速率,無需用戶手動設(shè)置即可獲得匹配其交互習(xí)慣的語音體驗。最后,本方案采用平滑調(diào)整機制并設(shè)置合理的速率范圍,確保語音速率變化的連續(xù)性和自然性,避免了突兀變化對用戶體驗的負(fù)面影響。

51、綜上所述,本技術(shù)方案實現(xiàn)了ai語音速率與用戶交互習(xí)慣的自動匹配,消除了用戶需要反復(fù)手動調(diào)整的煩瑣過程,顯著提升了ai語音交互的自然性和用戶滿意度。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1