Türkan, Mehmet
Loading...
Profile URL
Name Variants
Turkan, Mehmet
Turkan, M
Türkan, M
Turkan, M
Türkan, M
Job Title
Email Address
mehmet.turkan@ieu.edu.tr
mehmet.turkan@gmail.com
mehmet.turkan@gmail.com
Main Affiliation
05.05. Computer Engineering
Status
Current Staff
ORCID ID
Scopus Author ID
Turkish CoHE Profile ID
Google Scholar ID
WoS Researcher ID
Sustainable Development Goals

Documents
55
Citations
968
h-index
15

Documents
47
Citations
617

Scholarly Output
53
Articles
13
Views / Downloads
67/1179
Supervised MSc Theses
9
Supervised PhD Theses
2
WoS Citation Count
463
Scopus Citation Count
721
WoS h-index
7
Scopus h-index
9
Patents
0
Projects
0
WoS Citations per Publication
8.74
Scopus Citations per Publication
13.60
Open Access Source
17
Supervised Theses
11
| Journal | Count |
|---|
Current Page: 1 / NaN
Scopus Quartile Distribution
Competency Cloud

53 results
Scholarly Output Search Results
Now showing 1 - 10 of 53
Article Citation - WoS: 2Citation - Scopus: 2Preserving Spatio-Temporal Information in Machine Learning: a Shift-Invariant K-Means Perspective(Springer, 2022) Oktar, Yigit; Turkan, MehmetIn conventional machine learning applications, each data attribute is assumed to be orthogonal to others. Namely, every pair of dimension is orthogonal to each other and thus there is no distinction of in-between relations of dimensions. However, this is certainly not the case in real world signals which naturally originate from a spatio-temporal configuration. As a result, the conventional vectorization process disrupts all of the spatio-temporal information about the order/place of data whether it be 1D, 2D, 3D, or 4D. In this paper, the problem of orthogonality is first investigated through conventional k-means of images, where images are to be processed as vectors. As a solution, shift-invariant k-means is proposed in a novel framework with the help of sparse representations. A generalization of shift-invariant k-means, convolutional dictionary learning is then utilized as an unsupervised feature extraction method for classification. Experiments suggest that Gabor feature extraction as a simulation of shallow convolutional neural networks provides a little better performance compared to convolutional dictionary learning. Other alternatives of convolutional-logic are also discussed for spatio-temporal information preservation, including a spatio-temporal hypercomplex encoding scheme.Review Article Citation - WoS: 34Citation - Scopus: 40A Review of Sparsity-Based Clustering Methods(Elsevier, 2018) Oktar, Yigit; Turkan, MehmetIn case of high dimensionality, a class of data clustering methods has been proposed as a solution that includes suitable subspace search to find inherent clusters. Sparsity-based clustering approaches include a twist in subspace approach as they incorporate a dimensionality expansion through the usage of an overcomplete dictionary representation. Thus, these approaches provide a broader search space to utilize subspace clustering at large. However, sparsity constraint alone does not enforce structured clusters. Through certain stricter constraints, data grouping is possible, which translates to a type of clustering depending on the types of constraints. The dual of the sparsity constraint, namely the dictionary, is another aspect of the whole sparsity-based clustering methods. Unlike off-the-shelf or fixed-waveform dictionaries, adaptive dictionaries can additionally be utilized to shape the state-model entity into a more adaptive form. Chained with structured sparsity, adaptive dictionaries force the state-model into well-formed clusters. Subspaces designated with structured sparsity can then be dissolved through recursion to acquire deep sparse structures that correspond to a taxonomy. As a final note, such procedure can further be extended to include various other machine learning perspectives. (C) 2018 Elsevier B.V. All rights reserved.Doctoral Thesis Variations on Structured Sparsity for Machine Learning(İzmir Ekonomi Üniversitesi, 2020) Oktar, Yiğit; Türkan, MehmetSeyrek ve bol gösterimler için sözlük öğrenimi genelde bir öznitelik öğrenimi yöntemidir. Bu yöntem yapıcı sinyal işleme uygulamalarında sıkça kullanılır. Öğrenilen öznitelikler, makine öğrenimi için sınıflandırma ve kümeleme yöntemlerine de girdi olarak verilebilir. Kalıp seyreklik kullanarak, seyreklik sistemi bir kümeleme problemine çevrilebilir. Olağan durumda, aynı alt uzaydaki iki sınıfın ayırt edilememesinden dolayı, doğrusal olarak ayrılmayan durumların öğrenimi olası değildir. Bire toplam ve eksi olamama koşulları ile kalıp seyreklik birlikte kullanıldığında, k-flats, k-simplexes, k-polytopes olarak adlandırılacak çeşitli k-means üstproblemlerine ulaşılır. Polytope aynı boyut sayısına sahip simplekslerden oluşan bütün bir cisimi belirtir. K-polytopes deneysel olarak k-means toplulukları kadar iyi ve çekirdek k-means'ten daha iyi sonuçlar verir. Bütünsellik bırakıldığı ve boyutsal heterojenlik olduğu takdirde, k-polytopes bir tek sınıf öğrenim yöntemi olan simpleksel öğrenim ile genelleştirilebilir. Kombinasyonel doğası gereği, çözüm için evrimsel yöntem seçilmiştir. Bu çeşit bir uyarlama doğrusal ayrılmayan durumları kolayca öğrenebilmekte ve de güvenilir bir yöntem olarak görünmektedir. Boyutların birbirine dik olduğu varsayıldığı için hala eksiklikler vardır. Evrişim diklik sorununa pratik bir çözüm sağlar. Evrişimli durum kullanılarak, kaydırmaya değişimsiz k-means problemi sunulmuş ve evrişimli sözlük öğreniminin denetimsiz öznitelik öğrenimi başarımı değerlendirilmiştir. Bu eklentiler ve değerlendirmeler sonucunda, seyrek ve bol gösterimler sistemi çok önemli bir makine öğrenimi yöntemi olarak karşımıza çıkmaktadır.Conference Object Sparse Features for Multi-Exposure Fusion(European Signal Processing Conference, EUSIPCO, 2024) Yayci, Zeynep Ovgu; Turkan, MehmetMaster Thesis Fetter: Facial emotion and texture transfer with efficient representations(İzmir Ekonomi Üniversitesi, 2024) Yaylalıoğlu, Ahmet; Türkan, MehmetGünümüzde, yüksek hesaplama kapasiteli donanımlarla birlikte gelişen üretici ağlar, yapay zeka araştırmalarının çıktılarını gerçekten ayırt edilemez hale getirmiştir. İnsan yüz resimlerini sentezlemek ve manipüle etmek için birçok Çekişmeli Üretici Ağ (GAN) modelleri bulunmaktadır. Ancak, üretici ağların yüksek çıktı kalitesi, önemli hesaplama gücü gerektirir, sabit boyutlu resimlerle çalışmayı zorunlu kılar ve geniş veri miktarları içeren büyük veri kümeleri talep eder. Ayrıca, bu modeller eğitildikleri veri kümelerinin özelliklerini miras alır. Sunduğumuz yenilikçi yaklaşım, Ayrık Kosinüs Dönüşümü (DCT) sözlügü tabanlı seyrek temsiller ve gradyan iniş optimizasyonu kullanarak herhangi bir boyuttaki insan yüz resimleri arasında doku ve duygu aktarımlarının hızlı bir şekilde gerçekleştirilebilecegini göstermektedir. Görüntü piramitlerini içeren ve her piramit seviyesinde hızlı optimizasyonu sağlayan metodumuz, modern GAN çıktıları ile karşılaştırılabilir kararlı sonuçlar üretmiştir.Conference Object Citation - Scopus: 4Audio-Visual Speech Recognition Using 3d Convolutional Neural Networks(Institute of Electrical and Electronics Engineers Inc., 2021) Belhan C.; Fikirdanis D.; Cimen O.; Pasinli P.; Akgun Z.; Yayci Z.O.; Türkan, Mehmet; Cimen, Ovgu; Belhan, Ceren; Yayci, Zeynep Ovgu; Fikirdanis, Damla; Akgun, Zeynep; Pasinli, PelinLip reading, described as extracting speech data from the observable deeds in the face, particularly the jaws, lips, tongue and teeth, is a very challenging task. It is indeed a beneficial skill that helps people to comprehend and interpret the content of other people's speech, when it is not sufficient to recognize either audio or expression. Even experts require a certain level of experience and need an understanding of visual expressions to interpret spoken words. However, this may not be efficient enough for the process. Nowadays, lip sequences can be converted into expressive words and phrases with the aid of computers. Thus, the usage of neural networks (NNs) is increased rapidly in this field. The main contribution of this study is to use Short-Time Fourier Transformed (STFT) audio data as an extra image input and employing 3D Convolutional NNs (CNNs) for feature extraction. This generates features considering the change in consecutive frames and makes use of visual and auditory data together with the attributes from the image. After testing several experimental scenarios, it turns out to be the proposed method has a strong promise for further development in this research domain. © 2021 IEEE.Master Thesis Multi-Exposure Image Fusion Algorithms for High Dynamic Range Imaging(İzmir Ekonomi Üniversitesi, 2020) Ulucan, Oguzhan; Türkan, MehmetYüksek dinamik aralıklı görüntüleme (YDAG) zorlu bir teknolojidir, ancak modern görüntüleme uygulamaları için gereklidir. Düşük maliyetli görüntüleme sensörleri sınırlı dinamik aralığa sahiptir ve yüksek zıtlıktaki doğal sahneleri yakalayıp ekrana yansıtmak her zaman mümkün değildir. Ayrıca herhangi bir pozda bilgi kaybetmek kaçınılmazdır. YDAG için üç çözüm yüksek dinamik aralığa (YDA) sahip pahalı kameralar ile YDA ile uyumlu monitörler kullanmak, düşük dinamik aralığa (DDA) sahip ekranlar için ton haritalama operatörleri kullanmak ve resim birleştirme algoritmalarıyla aynı DDA sahneye ait birden fazla pozu çekip birleştirmektir. Kullanıcı sınıfı cihazlar üreten şirketler, düşük maliyetleri nedeniyle DDA ekranlar için YDA benzeri görüntüler elde etmek adına çoklu pozlama füzyonu (ÇPF) yaklaşımlarını tercih etmektedir. Bu nedenle, aynı sahnenin farklı pozlarını içeren bir görüntü yığınını tek bir bilgilendirici görüntü oluşacak şekilde birleştirmek çekici bir araştırma alanıdır. Bu tezde statik sahne ÇPF için özgün, basit ama etkili bir yöntem önerilmiştir ve güncel ÇPF metotları incelenmiştir. Geliştirilen teknik, doğrusal gömme (DG) ve nehir sınırı maskelemesi (NSM) yoluyla ağırlık haritasının çıkarılmasına dayanmaktadır. DG ve NSM bilindiği kadarıyla ÇPF için ilk kez kullanılmıştır. Kapsamlı deneysel karşılaştırmalar çok güçlü görsel ve istatistiksel sonuçlar göstermektedir ve bu yaklaşım gelecekteki MEF çalışmalarına yardım sağlayacaktır.Article Citation - WoS: 30Citation - Scopus: 31Multi-Exposure Image Fusion Based on Linear Embeddings and Watershed Masking(Elsevier, 2021) Ulucan, Oguzhan; Karakaya, Diclehan; Turkan, MehmetHigh dynamic range imaging (HDRI) is a challenging technology but yet demanding for modern imaging applications. Low-cost image sensors have limited dynamic range, and it is not always possible to capture and display natural scenes with high contrast and information loss in any exposure is inevitable. Three solutions for HDRI are using expensive high dynamic range (HDR) cameras with HDR-compatible displays, tone mapping operators for low dynamic range (LDR) screens, and capturing and fusing multiple exposures of the same LDR scene via image fusion algorithms. Companies that produce user grade devices prefer multi-exposure fusion (MEF) approaches to obtain HDR-like images for LDR screens due to its low cost. Hence, merging a stack of images containing different exposures of the same scene into a single informative image is an attractive research field. In this study, a novel, simple yet effective method is proposed for static image exposure fusion. The developed technique is based on weight map extraction via linear embeddings and watershed masking. The main advantage lies in watershed masking-based adjustment for obtaining accurate weights for image fusion. The comprehensive experimental comparisons demonstrate very strong visual and statistical results, and this approach should facilitate future MEF studies. (C) 2020 Elsevier B.V. All rights reserved.Article Citation - WoS: 3Citation - Scopus: 6Image declipping: Saturation correction in single images(Academic Press Inc Elsevier Science, 2022) Karakaya, Diclehan; Ulucan, Oguzhan; Turkan, MehmetHigh dynamic range (HDR) images present fine details in a scene and are visually more appealing than low dynamic range (LDR) images, since they contain a greater dynamic range of color gamut. HDR compatible displays are currently high-cost, therefore tone-mapping algorithms have widely been used to obtain high quality images for LDR screens with a lower cost. However, tone-mapped images may contain clipped pixel regions, which should be corrected to retrieve the lost information, to acquire visually pleasing LDR images. In a single image, the recovery of color and texture information in clipped regions is challenging, yet an attractive research field in image processing. Although there are several algorithms present in literature, developing a general framework for different types of image content is hard to achieve. This study proposes a single image declipping method based on linear embeddings, difference of pixels and block-search. Experimental results carried out on a tone-mapped HDR image dataset and LDR images demonstrate that the proposed algorithm is able to successfully recover saturated pixels in various types of images. Detailed statistical and visual comparisons show that this approach produces superior results on average for both tone-mapped and LDR images when compared to existing techniques.(c) 2022 Elsevier Inc. All rights reserved.Conference Object Citation - WoS: 2Citation - Scopus: 2MICROSCALE IMAGE ENHANCEMENT VIA PCA AND WELL-EXPOSEDNESS MAPS(IEEE Computer Society, 2022) Yayci Z.O.; Dura U.; Kaya Z.B.; Cetin A.E.; Türkan, Mehmet; Dura, Ugur; Cetin, Arif E.; Kaya, Zeynep Betul; Yayci, Zeynep OvguThe restrictions of accessing high-end microscopes, microscale cameras and high-tech imaging lenses result in a high demand on low-cost microscopes. However, low-cost microscopes are facing with many image capture and quality limitations due to incompatible equipped instrumentation. This study aims at overcoming illumination and contrast problems, color aberration issues, and blur and noise corruption in low-cost microscopes at high image magnification rates. The three color channels of the input image are enhanced via principal component analysis and well-exposedness feature maps by means of cross-channel histogram matching, Laplacian and non-local means filtering. The proposed approach produces sharper, and better color and illumination fixed outputs when compared to existing methods in literature. © 2022 IEEE.

