Please use this identifier to cite or link to this item: https://hdl.handle.net/11147/11944
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorTekir, Selmaen_US
dc.contributor.authorSezerer, Erhanen_US
dc.date.accessioned2022-02-02T12:50:41Z-
dc.date.available2022-02-02T12:50:41Z-
dc.date.issued2021-10en_US
dc.identifier.urihttps://hdl.handle.net/11147/11944-
dc.descriptionThesis (Doctoral)--Izmir Institute of Technology, Computer Engineering, Izmir, 2021en_US
dc.descriptionIncludes bibliographical references (leaves. 75-97)en_US
dc.descriptionText in English; Abstract: Turkish and Englishen_US
dc.description.abstractHuman-level language understanding is one of the oldest challenges in computer science. Many scientific work has been dedicated to finding good representations for semantic units (words, morphemes, characters) in languages. Recently, contextual language models, such as BERT and its variants, showed great success in downstream natural language processing tasks with the use of masked language modelling and transformer structures. Although these methods solve many problems in this domain and are proved to be useful, they still lack one crucial aspect of the language acquisition in humans: Experiential (visual) information. Over the last few years, there has been an increase in the studies that consider experiential information by building multi-modal language models and representations. It is shown by several studies that language acquisition in humans start with learning concrete concepts through images and then continue with learning abstract ideas through text. In this work, the curriculum learning method is used to teach the model concrete/abstract concepts through the use of images and corresponding captions to accomplish the task of multi-modal language modeling/representation. BERT and Resnet-152 model is used on each modality with attentive pooling mechanism on the newly constructed dataset, collected from the Wikimedia Commons. To show the performance of the proposed model, downstream tasks and ablation studies are performed. Contribution of this work is two-fold: a new dataset is constructed from Wikimedia Commons and a new multi-modal pre-training approach that is based on curriculum learning is proposed. Results show that the proposed multi-modal pre-training approach increases the success of the model.en_US
dc.description.abstractDoğal dillerin anlaşılması, bilgisayar bilimlerinin en eski problemlerinden biridir. O günlerden bu yana, birçok çalışma dillerdeki anlamsal birimlerin (kelime, hece ve harf) temsiline adanmıştır. Yakın zamanda, BERT ve türevleri gibi bağlamsal dil modelleri, maskelenmiş dil modelleme ve transformer yapıları kullanarak büyük başarılar göstermiştir. Bu metodlar, alandaki birçok problemi çözmesine ve kullanışlılığını kanıtlamasına rağmen dil öğreniminde önemli bir rolü olan deneyimsel (görsel) bilgiyi dikkate almamaktadır. Son birkaç yılda deneyimsel bilgiyi göz önünde bulunduran çok-kipli dil modelleri ve temsilleri üzerine olan çalışmalarda artış vardır. Birkaç çalışmanın gösterdiği üzere, dil öğrenimi insanlarda imgelerden somut kavramları öğrenerek başlar ve yazım yoluyla soyut kavramları öğrenerek devam eder. Bu çalışmada, somut kavramları imgeden öğrenen ve soyut kavramları yazımdan öğrenen, izlence öğrenimi yöntemini kullanan bir çok-kipli dil modeli/temsili önerilmiştir. Yazım ve imge kipleri için sırasıyla BERT ve Resnet-152 modelleri, dikkat havuzlaması yöntemiyle biraraya getirilerek, yeni oluşturulmuş Wikimedia Commons veri kümesi üzerinde kullanılmıştır. Önerilen metodun başarımı doğal dil işleme görevleri üzerinde ve ablasyon çalışması ile sınanmıştır. Bu çalışmanın katkısı iki yönlüdür: Wikimedia Commons kullanılarak yeni bir veri kümesi oluşturulmuş ve izlence öğrenimine dayanan yeni bir çok-kipli ön-eğitim yaklaşımı önerilmiştir. Elde edilen sonuçlar bu çok-kipli ön-eğitim yönteminin modelin başarımını artırdığını göstermektedir.en_US
dc.format.extentviii, 99 leavesen_US
dc.language.isoenen_US
dc.publisherIzmir Institute of Technologyen_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.subjectNeural networks (Computer science)en_US
dc.subjectSemantic unitsen_US
dc.subjectWikimedia Commonsen_US
dc.subjectLanguage modelingen_US
dc.titleDiscovering specific semantic relations among words using neural network methodsen_US
dc.title.alternativeYapay sinir ağı yöntemleri ile sözcükler arası özel anlamsal ilişkilerin keşfedilmesien_US
dc.typeDoctoral Thesisen_US
dc.departmentThesis (Doctoral)--İzmir Institute of Technology, Computer Engineeringen_US
dc.relation.publicationcategoryTezen_US
dc.contributor.affiliationIzmir Institute of Technologyen_US
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
item.openairetypeDoctoral Thesis-
crisitem.author.dept03.04. Department of Computer Engineering-
Appears in Collections:Phd Degree / Doktora
Files in This Item:
File Description SizeFormat 
10151022.pdfDoctoral Thesis3.64 MBAdobe PDFView/Open
Show simple item record



CORE Recommender

Page view(s)

576
checked on Nov 18, 2024

Download(s)

222
checked on Nov 18, 2024

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.