亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python實現(xiàn)語音識別和語音合成功能

系統(tǒng) 2178 0

聲音的本質(zhì)是震動,震動的本質(zhì)是位移關(guān)于時間的函數(shù),波形文件(.wav)中記錄了不同采樣時刻的位移。

通過傅里葉變換,可以將時間域的聲音函數(shù)分解為一系列不同頻率的正弦函數(shù)的疊加,通過頻率譜線的特殊分布,建立音頻內(nèi)容和文本的對應(yīng)關(guān)系,以此作為模型訓(xùn)練的基礎(chǔ)。

案例:畫出語音信號的波形和頻率分布,(freq.wav數(shù)據(jù)地址)

            
# -*- encoding:utf-8 -*-
import numpy as np
import numpy.fft as nf
import scipy.io.wavfile as wf
import matplotlib.pyplot as plt
sample_rate, sigs = wf.read('../machine_learning_date/freq.wav')
print(sample_rate)   # 8000采樣率
print(sigs.shape)  # (3251,)
sigs = sigs / (2 ** 15) # 歸一化
times = np.arange(len(sigs)) / sample_rate
freqs = nf.fftfreq(sigs.size, 1 / sample_rate)
ffts = nf.fft(sigs)
pows = np.abs(ffts)
plt.figure('Audio')
plt.subplot(121)
plt.title('Time Domain')
plt.xlabel('Time', fontsize=12)
plt.ylabel('Signal', fontsize=12)
plt.tick_params(labelsize=10)
plt.grid(linestyle=':')
plt.plot(times, sigs, c='dodgerblue', label='Signal')
plt.legend()
plt.subplot(122)
plt.title('Frequency Domain')
plt.xlabel('Frequency', fontsize=12)
plt.ylabel('Power', fontsize=12)
plt.tick_params(labelsize=10)
plt.grid(linestyle=':')
plt.plot(freqs[freqs >= 0], pows[freqs >= 0], c='orangered', label='Power')
plt.legend()
plt.tight_layout()
plt.show()
          

語音識別

梅爾頻率倒譜系數(shù)(MFCC)通過與聲音內(nèi)容密切相關(guān)的13個特殊頻率所對應(yīng)的能量分布,可以使用梅爾頻率倒譜系數(shù)矩陣作為語音識別的特征。基于隱馬爾科夫模型進(jìn)行模式識別,找到測試樣本最匹配的聲音模型,從而識別語音內(nèi)容。

MFCC

梅爾頻率倒譜系數(shù)相關(guān)API:

            
import scipy.io.wavfile as wf
import python_speech_features as sf
sample_rate, sigs = wf.read('../data/freq.wav')
mfcc = sf.mfcc(sigs, sample_rate)
          

案例:畫出MFCC矩陣:

            
python -m pip install python_speech_features
import scipy.io.wavfile as wf
import python_speech_features as sf
import matplotlib.pyplot as mp
sample_rate, sigs = wf.read(
  '../ml_data/speeches/training/banana/banana01.wav')
mfcc = sf.mfcc(sigs, sample_rate)
mp.matshow(mfcc.T, cmap='gist_rainbow')
mp.show()
          

隱馬爾科夫模型

隱馬爾科夫模型相關(guān)API:

            
import hmmlearn.hmm as hl
model = hl.GaussianHMM(n_components=4, covariance_type='diag', n_iter=1000)
# n_components: 用幾個高斯分布函數(shù)擬合樣本數(shù)據(jù)
# covariance_type: 相關(guān)矩陣的輔對角線進(jìn)行相關(guān)性比較
# n_iter: 最大迭代上限
model.fit(mfccs) # 使用模型匹配測試mfcc矩陣的分值 score = model.score(test_mfccs)
          

案例:訓(xùn)練training文件夾下的音頻,對testing文件夾下的音頻文件做分類

1、讀取training文件夾中的訓(xùn)練音頻樣本,每個音頻對應(yīng)一個mfcc矩陣,每個mfcc都有一個類別(apple)。

2、把所有類別為apple的mfcc合并在一起,形成訓(xùn)練集。

  | mfcc |  ??? |
  | mfcc | apple |
  | mfcc |  ??? |
  .....
  由上述訓(xùn)練集樣本可以訓(xùn)練一個用于匹配apple的HMM。

3、訓(xùn)練7個HMM分別對應(yīng)每個水果類別。 保存在列表中。

4、讀取testing文件夾中的測試樣本,整理測試樣本

  | mfcc | apple |
  | mfcc | lime?? |
?
5、針對每一個測試樣本:

  1、分別使用7個HMM模型,對測試樣本計算score得分。

  2、取7個模型中得分最高的模型所屬類別作為預(yù)測類別。

            
import os
import numpy as np
import scipy.io.wavfile as wf
import python_speech_features as sf
import hmmlearn.hmm as hl
?
#1. 讀取training文件夾中的訓(xùn)練音頻樣本,每個音頻對應(yīng)一個mfcc矩陣,每個mfcc都有一個類別(apple)。
def search_file(directory):
  # 使傳過來的directory匹配當(dāng)前操作系統(tǒng)
  # {'apple':[url, url, url ... ], 'banana':[...]}  
  directory = os.path.normpath(directory)
  objects = {}
  # curdir:當(dāng)前目錄 
  # subdirs: 當(dāng)前目錄下的所有子目錄
  # files: 當(dāng)前目錄下的所有文件名
  for curdir, subdirs, files in os.walk(directory):
    for file in files:
      if file.endswith('.wav'):
        label = curdir.split(os.path.sep)[-1]
        if label not in objects:
          objects[label] = []
        # 把路徑添加到label對應(yīng)的列表中
        path = os.path.join(curdir, file)
        objects[label].append(path)
  return objects
?
#讀取訓(xùn)練集數(shù)據(jù)
train_samples = \
  search_file('../ml_data/speeches/training')
?
'''
          

2. 把所有類別為apple的mfcc合并在一起,形成訓(xùn)練集。

            
 | mfcc |    |
  | mfcc | apple |
  | mfcc |    |
  .....
  由上述訓(xùn)練集樣本可以訓(xùn)練一個用于匹配apple的HMM。
'''
train_x, train_y = [], []
# 遍歷7次 apple/banana/...
for label, filenames in train_samples.items():
  mfccs = np.array([])
  for filename in filenames:
    sample_rate, sigs = wf.read(filename)
    mfcc = sf.mfcc(sigs, sample_rate)
    if len(mfccs)==0:
      mfccs = mfcc
    else:
      mfccs = np.append(mfccs, mfcc, axis=0)
  train_x.append(mfccs)
  train_y.append(label)
'''
訓(xùn)練集:
  train_x train_y
  ----------------
  | mfcc |    |
  | mfcc | apple |
  | mfcc |    |
  ----------------
  | mfcc |    |
  | mfcc | banana |
  | mfcc |    |
  -----------------
  | mfcc |    |
  | mfcc | lime  |
  | mfcc |    |
  -----------------
'''
# {'apple':object, 'banana':object ...}
models = {}
for mfccs, label in zip(train_x, train_y):
  model = hl.GaussianHMM(n_components=4, 
    covariance_type='diag', n_iter=1000)
  models[label] = model.fit(mfccs)
'''
          

4. 讀取testing文件夾中的測試樣本,針對每一個測試樣本:

?? 1. 分別使用7個HMM模型,對測試樣本計算score得分。

?? 2. 取7個模型中得分最高的模型所屬類別作為預(yù)測類別。

            
'''
#讀取測試集數(shù)據(jù)
test_samples = \
  search_file('../ml_data/speeches/testing')
?
test_x, test_y = [], []
for label, filenames in test_samples.items():
  mfccs = np.array([])
  for filename in filenames:
    sample_rate, sigs = wf.read(filename)
    mfcc = sf.mfcc(sigs, sample_rate)
    if len(mfccs)==0:
      mfccs = mfcc
    else:
      mfccs = np.append(mfccs, mfcc, axis=0)
  test_x.append(mfccs)
  test_y.append(label)
?
'''測試集:
  test_x test_y
  -----------------
  | mfcc | apple |
  -----------------
  | mfcc | banana |
  -----------------
  | mfcc | lime  |
  -----------------
'''
pred_test_y = []
for mfccs in test_x:
# 判斷mfccs與哪一個HMM模型更加匹配
best_score, best_label = None, None
for label, model in models.items():
score = model.score(mfccs)
if (best_score is None) or (best_score
            
            
          

聲音合成

根據(jù)需求獲取某個聲音的模型頻域數(shù)據(jù),根據(jù)業(yè)務(wù)需要可以修改模型數(shù)據(jù),逆向生成時域數(shù)據(jù),完成聲音的合成。

案例:

            
import json
import numpy as np
import scipy.io.wavfile as wf
with open('../data/12.json', 'r') as f:
  freqs = json.loads(f.read())
tones = [
  ('G5', 1.5),
  ('A5', 0.5),
  ('G5', 1.5),
  ('E5', 0.5),
  ('D5', 0.5),
  ('E5', 0.25),
  ('D5', 0.25),
  ('C5', 0.5),
  ('A4', 0.5),
  ('C5', 0.75)]
sample_rate = 44100
music = np.empty(shape=1)
for tone, duration in tones:
  times = np.linspace(0, duration, duration * sample_rate)
  sound = np.sin(2 * np.pi * freqs[tone] * times)
  music = np.append(music, sound)
music *= 2 ** 15
music = music.astype(np.int16)
wf.write('../data/music.wav', sample_rate, music)
          

總結(jié)

以上所述是小編給大家介紹的Python實現(xiàn)語音識別和語音合成功能,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
如果你覺得本文對你有幫助,歡迎轉(zhuǎn)載,煩請注明出處,謝謝!


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 五月综合激情网 | 亚洲国产高清视频 | 朴妮唛禁福利视频在线 | 国产精品永久在线 | 日本精品夜色视频一区二区 | 天天射夜夜操 | 日韩在线国产精品 | 亚洲成人免费网站 | 久久国产午夜精品理论片34页 | 99视频精品全部免费观看 | 日本精品久久久中文字幕 | 天啪天干在线视频 | tobesex日本护士| 欧美十区 | 日韩精品亚洲精品485页 | 亚洲精品久久久久久下一站 | 四虎影视精品永久免费 | 波多野结衣一二三区 | 欧美乱妇在线观看 | 天天干天天色天天干 | 欧美专区在线播放 | 99久久国产 | 亚洲乱人伦在线 | 色吧五月婷婷 | 精品综合久久久久久蜜月 | 99热久久国产这里是精品 | 天天弄天天干 | 久久免费在线视频 | 久久婷五月综合 | 图片亚洲va欧美va国产综合 | 精品久久中文字幕 | 国产成人精品亚洲一区 | 亚洲国产一区二区a毛片日本 | 亚洲毛片免费在线观看 | 亚洲一区中文字幕在线 | 国产成人综合在线视频 | 亚洲欧美日韩高清一区二区一 | 国产普通话自拍 | aaa级精品久久久国产片 | 精品日韩在线视频 | 亚洲毛片免费看 |