Please use this identifier to cite or link to this item: https://hdl.handle.net/20.500.14365/5739
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorTürkan, Mehmet-
dc.contributor.authorYaylalıoğlu, Ahmet-
dc.date.accessioned2024-12-25T19:24:22Z-
dc.date.available2024-12-25T19:24:22Z-
dc.date.issued2024-
dc.identifier.urihttps://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=usXiZIM9Lp0wk-YzRoaT-7MEuSlcY2qjVicv6Oumkc7p0Sn8GOsJb9Oi1IZwmMHa-
dc.identifier.urihttps://hdl.handle.net/20.500.14365/5739-
dc.description.abstractGünümüzde, yüksek hesaplama kapasiteli donanımlarla birlikte gelişen üretici ağlar, yapay zeka araştırmalarının çıktılarını gerçekten ayırt edilemez hale getirmiştir. İnsan yüz resimlerini sentezlemek ve manipüle etmek için birçok Çekişmeli Üretici Ağ (GAN) modelleri bulunmaktadır. Ancak, üretici ağların yüksek çıktı kalitesi, önemli hesaplama gücü gerektirir, sabit boyutlu resimlerle çalışmayı zorunlu kılar ve geniş veri miktarları içeren büyük veri kümeleri talep eder. Ayrıca, bu modeller eğitildikleri veri kümelerinin özelliklerini miras alır. Sunduğumuz yenilikçi yaklaşım, Ayrık Kosinüs Dönüşümü (DCT) sözlügü tabanlı seyrek temsiller ve gradyan iniş optimizasyonu kullanarak herhangi bir boyuttaki insan yüz resimleri arasında doku ve duygu aktarımlarının hızlı bir şekilde gerçekleştirilebilecegini göstermektedir. Görüntü piramitlerini içeren ve her piramit seviyesinde hızlı optimizasyonu sağlayan metodumuz, modern GAN çıktıları ile karşılaştırılabilir kararlı sonuçlar üretmiştir.en_US
dc.description.abstractIn the current era, advancements in generative networks, alongside hardware with high computational capacity, have made the outputs of artificial intelligence research indistinguishable from reality. Numerous Generative Adversarial Network (GAN) models for synthesizing and manipulating human face images exist. However, the high output quality of generative networks requires substantial computational power, necessitates working with fixed-sized images, and demands large datasets containing vast amounts of data. Additionally, these models inherit the characteristics of the datasets on which they are trained. Our novel approach demonstrates that texture and emotion transfers can be quickly performed between human face images of any size using Discrete Cosine Transform (DCT) dictionary based sparse representation and gradient-descent optimization. Our method, which incorporates image pyramids and facilitates rapid optimization at every pyramid level, has produced stable results comparable to state-of-the-art GAN outputs.en_US
dc.language.isoenen_US
dc.publisherİzmir Ekonomi Üniversitesien_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.subjectElektrik ve Elektronik Mühendisliğien_US
dc.subjectElectrical and Electronics Engineeringen_US
dc.titleFetter: Facial emotion and texture transfer with efficient representationsen_US
dc.title.alternativeFetter: Etkili temsiller ile insan yüz görüntüleri arasında duygu ve doku aktarımıen_US
dc.typeMaster Thesisen_US
dc.departmentİEÜ, Lisansüstü Eğitim Enstitüsü, Elektrik-Elektronik Mühendisliği Ana Bilim Dalıen_US
dc.identifier.startpage1en_US
dc.identifier.endpage67en_US
dc.institutionauthorYaylalıoğlu, Ahmet-
dc.relation.publicationcategoryTezen_US
dc.identifier.yoktezid886449en_US
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairetypeMaster Thesis-
item.cerifentitytypePublications-
item.fulltextNo Fulltext-
item.languageiso639-1en-
item.grantfulltextnone-
Appears in Collections:Lisansüstü Eğitim Enstitüsü Tez Koleksiyonu
Show simple item record



CORE Recommender

Page view(s)

278
checked on Apr 14, 2025

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.