Please use this identifier to cite or link to this item:
https://hdl.handle.net/20.500.14365/114
Title: | Data mining for emotion recognition in speech | Other Titles: | Seste duygu tanıma için veri madenciliği | Authors: | Akkurt, Gamze | Advisors: | Ünay, Devrim | Keywords: | Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol Computer Engineering and Computer Science and Control Duygu tanıma Emotion recognition Ses işleme Speech processing |
Publisher: | İzmir Ekonomi Üniversitesi | Abstract: | Konuş¸ma sinyalinde duygu sınıflandırması için kullanılan popüler özellikler temel frekans, ses kalitesi, enerji, spektral ve MFCC'dir. Çalışmaların çoğu konuşmadaki duyguların tanınmasında bu akustik özelliklere odaklanırken, bu tezde biz; duygusal kalıplardan elde edilen özellikleri kullanarak duygu tanıma sorunu ele alınmıstır. Yaklaşımımızda, konuş¸ma sinyalini ayrıklaştırılmış, sinyale dönüştürür ve farklı duygular arasında ayrım yapabilen ayırt edici kalıplar çıkartılmaktadır. Ardından, sınıflandırıcıyı güçlendirmek için; çıkartılan kalıplarla bir dizi vektör özelliği oluşturulur. Deneysel sonuçlar, önerilen yaklaşımın, hem desene dayalı özelliklerden hem de desene ait özelliklerle desteklenen akustik özelliklerden duygusal konuşma durumunu etkili bir şekilde öğrendiğini göstermektedir. Desen bazlı özellikler, son teknoloji akustik özelliklere kıyasla iki sınıflandırıcı teknik kullanılarak doğrulukta %35 'lik artış ile sonuçlanmaktadır. Ayrca, bütün akustik özellikler, desen bazlı özelliklerile desteklendiğinde % 80 'nin üzerinde artış göstermektedir. The popular features used in speech signal for emotion classification are fundamental frequency, voice quality, energy, spectral, and MFCC. While most of the work focuses on these acoustic features in speech emotion recognition, we handle the problem of emotion recognition using features that are obtained from emotional patterns. In our approach, we transform the speech signal to discretized signal and extract distinctive patterns that can distinguish between different emotions. Then, a set of feature vectors is created using extracted patterns in order to feed a classifier. Experimental results indicate that the proposed approach learns the emotional state of speech efficiently from both pattern-based features and acoustic features that are supported by pattern features. Pattern-based features have resulted in 35 % improvement in accuracy using two classifiers compared to state of the art acoustic features. Moreover, when all acoustic features are combined with pattern-based features, classification accuracy enhances over 80 % in emotion recognition. |
URI: | https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=jNRDC1RLfVd4_T7x7ZXmmW_Mpz0vZqk_6SmnsacG5dI-40OBIOgj0E2iWotHusLO https://hdl.handle.net/20.500.14365/114 |
Appears in Collections: | Lisansüstü Eğitim Enstitüsü Tez Koleksiyonu |
Files in This Item:
File | Size | Format | |
---|---|---|---|
155-572974.pdf | 903.38 kB | Adobe PDF | View/Open |
CORE Recommender
Page view(s)
58
checked on Nov 18, 2024
Download(s)
16
checked on Nov 18, 2024
Google ScholarTM
Check
Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.