Please use this identifier to cite or link to this item: https://hdl.handle.net/11147/13910
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorGümüş, Abdurrahmantr
dc.contributor.authorKöksal, Talha Enestr
dc.date.accessioned2023-10-30T13:13:22Z-
dc.date.available2023-10-30T13:13:22Z-
dc.date.issued2023-07en_US
dc.identifier.urihttps://hdl.handle.net/11147/13910-
dc.descriptionThesis (Master)--İzmir Institute of Technology, Electronics and Communication Engineering, Izmir, 2023en_US
dc.descriptionIncludes bibliographical references (leaves. 47-51)en_US
dc.descriptionText in English; Abstract: Turkish and Englishen_US
dc.description.abstractIn this thesis, macro and micro facial expression sequences from various datasets are trained using neural networks to classify them in one of the basic emotions. In macro expression experiments, for each frame of the sequences facial landmarks are extracted using MediaPipe FaceMesh solution and geometric features using both spatial and temporal information based on these landmarks are created. To classify the features, ConvLSTM2D followed by multilayer perceptron blocks are used. In order to achieve real time classification performance, all algorithms are implemented compatible to run on GPU. The proposed method for macro expressions is tested with CK+, Oulu-CASIA VIS, Oulu-CASIA NIR and MMI datasets. In micro expression experiments, apart from geometric features also blendshape features provided by MediaPipe are used. In order to improve classification performance, Phase-Based Video Motion Processing technique is used to magnify subtle facial movements of micro expressions. Experiments are conducted separately on same classification layers that consist of ConvLSTM1D followed by multilayer perceptron blocks. The proposed method for micro expressions is tested with SAMM and CASME II datasets. The datasets utilized in this study were accessed upon signing corresponding license agreements. Each dataset is specifically designated for academic purposes and is made available under these agreements. Only data from subjects who provided consent for their information to be used in publications was included in the thesis. The license agreements for each dataset can be found in the appendices section.en_US
dc.description.abstractBu tezde, çeşitli veri setlerinden makro ve mikro yüz ifadesi dizileri, temel duygulardan birinde sınıflandırmak için sinir ağları kullanılarak eğitilmiştir. Makro ifade deneylerinde, dizilerin her bir karesi için MediaPipe FaceMesh çözümü kullanılarak yüz işaretleri çıkarılır ve bu noktalara dayalı olarak hem uzamsal hem de zamansal bilgiler kullanılarak geometrik özellikler oluşturulur. Öznitelikleri sınıflandırmak için ConvLSTM2D ve ardından çok katmanlı algılayıcı blokları kullanılır. Gerçek zamanlı sınıflandırma performansı elde etmek için, tüm algoritmalar GPU üzerinde çalışacak şekilde uyarlanmıştır. Makro ifadeler için önerilen yöntem CK+, Oulu-CASIA VIS, Oulu-CASIA NIR ve MMI veri setleri ile test edilmiştir. Mikro ifade deneylerinde geometrik özelliklerin yanı sıra MediaPipe tarafından sağlanan blendshape özellikleri de kullanılmaktadır. Sınıflandırma performansını iyileştirmek için, mikro ifadelerin ince yüz hareketlerini büyütmek için Faz Tabanlı Video Hareket İşleme tekniği kullanılır. Deneyler, ConvLSTM1D'yi takip eden çok katmanlı algılayıcı bloklardan oluşan aynı sınıflandırma katmanları üzerinde ayrı ayrı yürütülür. Mikro ifadeler için önerilen yöntem, SAMM ve CASME II veri setleri ile test edilmiştir. Bu çalışmada kullanılan veri setlerine, ilgili lisans sözleşmelerinin imzalanmasından sonra erişilmiştir. Her veri setinin akademik amaçlar için kullanmaya uygunluğu sözleşmelerde belirtilmiş ve bu anlaşmalar kapsamında kullanmıştır. Tezde sadece bilgilerinin yayınlarda kullanılmasına izin veren kişilerden elde edilen verilere yer verilmiştir. Her veri seti için lisans sözleşmeleri ekler bölümünde bulunmaktadır.tr
dc.format.extentxi, 61 leavesen_US
dc.language.isoenen_US
dc.publisher01. Izmir Institute of Technologyen_US
dc.rightsinfo:eu-repo/semantics/embargoedAccessen_US
dc.subjectDeep learningen_US
dc.subjectData setsen_US
dc.subjectLandmarksen_US
dc.titleDeep learning based real-time sequential facial expression analysisusing geometric featuresen_US
dc.title.alternativeDerin öğrenme tabanlı geometrik özellikleri kullanarak gerçek zamanlı sıralı yüz ifadesi analizitr
dc.typeMaster Thesisen_US
dc.authorid0000-0002-9568-0525en_US
dc.departmentThesis (Master)--İzmir Institute of Technology, Electrical and Electronics Engineeringen_US
dc.relation.publicationcategoryTeztr
dc.identifier.yoktezid824545en_US
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.fulltextWith Fulltext-
item.openairetypeMaster Thesis-
item.languageiso639-1en-
Appears in Collections:Master Degree / Yüksek Lisans Tezleri
Files in This Item:
File Description SizeFormat 
10566043.pdfMaster Thesis30.46 MBAdobe PDFView/Open
Show simple item record



CORE Recommender

Page view(s)

184
checked on Nov 18, 2024

Download(s)

58
checked on Nov 18, 2024

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.