Please use this identifier to cite or link to this item: https://hdl.handle.net/20.500.14365/114
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorÜnay, Devrim-
dc.contributor.authorAkkurt, Gamze-
dc.date.accessioned2023-06-16T12:27:44Z-
dc.date.available2023-06-16T12:27:44Z-
dc.date.issued2019-
dc.identifier.urihttps://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=jNRDC1RLfVd4_T7x7ZXmmW_Mpz0vZqk_6SmnsacG5dI-40OBIOgj0E2iWotHusLO-
dc.identifier.urihttps://hdl.handle.net/20.500.14365/114-
dc.description.abstractKonuş¸ma sinyalinde duygu sınıflandırması için kullanılan popüler özellikler temel frekans, ses kalitesi, enerji, spektral ve MFCC'dir. Çalışmaların çoğu konuşmadaki duyguların tanınmasında bu akustik özelliklere odaklanırken, bu tezde biz; duygusal kalıplardan elde edilen özellikleri kullanarak duygu tanıma sorunu ele alınmıstır. Yaklaşımımızda, konuş¸ma sinyalini ayrıklaştırılmış, sinyale dönüştürür ve farklı duygular arasında ayrım yapabilen ayırt edici kalıplar çıkartılmaktadır. Ardından, sınıflandırıcıyı güçlendirmek için; çıkartılan kalıplarla bir dizi vektör özelliği oluşturulur. Deneysel sonuçlar, önerilen yaklaşımın, hem desene dayalı özelliklerden hem de desene ait özelliklerle desteklenen akustik özelliklerden duygusal konuşma durumunu etkili bir şekilde öğrendiğini göstermektedir. Desen bazlı özellikler, son teknoloji akustik özelliklere kıyasla iki sınıflandırıcı teknik kullanılarak doğrulukta %35 'lik artış ile sonuçlanmaktadır. Ayrca, bütün akustik özellikler, desen bazlı özelliklerile desteklendiğinde % 80 'nin üzerinde artış göstermektedir.en_US
dc.description.abstractThe popular features used in speech signal for emotion classification are fundamental frequency, voice quality, energy, spectral, and MFCC. While most of the work focuses on these acoustic features in speech emotion recognition, we handle the problem of emotion recognition using features that are obtained from emotional patterns. In our approach, we transform the speech signal to discretized signal and extract distinctive patterns that can distinguish between different emotions. Then, a set of feature vectors is created using extracted patterns in order to feed a classifier. Experimental results indicate that the proposed approach learns the emotional state of speech efficiently from both pattern-based features and acoustic features that are supported by pattern features. Pattern-based features have resulted in 35 % improvement in accuracy using two classifiers compared to state of the art acoustic features. Moreover, when all acoustic features are combined with pattern-based features, classification accuracy enhances over 80 % in emotion recognition.en_US
dc.language.isoenen_US
dc.publisherİzmir Ekonomi Üniversitesien_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolen_US
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.subjectDuygu tanımaen_US
dc.subjectEmotion recognitionen_US
dc.subjectSes işlemeen_US
dc.subjectSpeech processingen_US
dc.titleData mining for emotion recognition in speechen_US
dc.title.alternativeSeste duygu tanıma için veri madenciliğien_US
dc.typeMaster Thesisen_US
dc.departmentİEÜ, Lisansüstü Eğitim Enstitüsü, Bilgisayar Mühendisliği Ana Bilim Dalıen_US
dc.identifier.startpage1en_US
dc.identifier.endpage65en_US
dc.institutionauthorAkkurt, Gamze-
dc.relation.publicationcategoryTezen_US
dc.identifier.yoktezid572974en_US
item.grantfulltextopen-
item.openairetypeMaster Thesis-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.fulltextWith Fulltext-
item.languageiso639-1en-
item.cerifentitytypePublications-
Appears in Collections:Lisansüstü Eğitim Enstitüsü Tez Koleksiyonu
Files in This Item:
File SizeFormat 
155-572974.pdf903.38 kBAdobe PDFView/Open
Show simple item record



CORE Recommender

Page view(s)

58
checked on Nov 18, 2024

Download(s)

16
checked on Nov 18, 2024

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.