Please use this identifier to cite or link to this item:
https://hdl.handle.net/11147/13935
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Özuysal, Mustafa | tr |
dc.contributor.author | Gülmez, Veli | tr |
dc.date.accessioned | 2023-11-06T07:56:05Z | - |
dc.date.available | 2023-11-06T07:56:05Z | - |
dc.date.issued | 2023-07 | en_US |
dc.identifier.uri | https://hdl.handle.net/11147/13935 | - |
dc.description | Thesis (Master)--İzmir Institute of Technology, Computer Engineering, Izmir, 2023 | en_US |
dc.description | Includes bibliographical references (leaves. 37-40) | en_US |
dc.description | Text in English; Abstract: Turkish and English | en_US |
dc.description.abstract | There are mainly two types of super-resolution methods: traditional methods and deep learning methods. While traditional methods define closed-form expressions with assumptions, deep learning methods rely on priors learned from data sets. However, both of them have disadvantages such as being too simple and having strong trust in priors. We focus on how to generate a high-resolution image using low-resolution images without priors by utilizing spatial hash encoding. We propose a grid-based super-resolution model using spatial hash encoding to map coordinate information into higher dimensional space. Our aim is to eliminate long training times and not rely on priors from data sets that are not able to cover all real-world scenarios. Therefore, our proposed model is able to do task- specific super-resolution without priors and eliminate potential hallucination effects caused by wrong priors. | en_US |
dc.description.abstract | Ağırlıklı olarak iki tür süper çözünürlük yöntemi vardır: geleneksel yöntemler ve derin öğrenme yöntemleri. Geleneksel yöntemler varsayımlarla kapalı biçimde ifadeler tanımlarken, derin öğrenme yöntemleri veri kümelerinden öğrenilen önsel bilgilere dayanır. Ancak her ikisinin de çok basit olması ve önsel bilgiye güvenin kuvvetli olması gibi dezavantajları vardır. Uzamsal özet kodlamayı kullanarak önsel bilgiler olmadan düşük çözünürlüklü görüntüler kullanarak yüksek çözünürlüklü bir görüntünün nasıl üretileceğine odaklanıyoruz. Koordinat bilgilerini daha yüksek boyutlu uzaya eşlemek için uzamsal özet kodlamayı kullanan ızgara tabanlı bir süper çözünürlüklü model öneriyoruz. Amacımız, uzun eğitim sürelerini ortadan kaldırmak ve tüm gerçek dünya senaryolarını kapsayamayan veri setlerinden elde edilen verilere güvenmemektir. Bu nedenle, önerdiğimiz model, önsel bilgiler olmadan göreve özel süper çözünürlük yapabilir ve yanlış önceliklerin neden olduğu potansiyel halüsinasyon etkilerini ortadan kaldırabilir. | tr |
dc.format.extent | ix, 62 leaves | en_US |
dc.language.iso | en | en_US |
dc.publisher | 01. Izmir Institute of Technology | en_US |
dc.rights | info:eu-repo/semantics/openAccess | en_US |
dc.subject | Super-resolution | en_US |
dc.subject | Python implementation | en_US |
dc.subject | High-resolution image | en_US |
dc.subject | Deep learning | en_US |
dc.subject | Multiresolution hash encoding | en_US |
dc.title | Multi-frame super-resolution without priors | en_US |
dc.title.alternative | Önsel bilgisiz çoklu görüntüden süper çözünürlük | tr |
dc.type | Master Thesis | en_US |
dc.authorid | 0009-0004-5351-9436 | en_US |
dc.department | Thesis (Master)--İzmir Institute of Technology, Computer Engineering | en_US |
dc.relation.publicationcategory | Tez | tr |
dc.identifier.yoktezid | 823511 | en_US |
item.fulltext | With Fulltext | - |
item.grantfulltext | open | - |
item.languageiso639-1 | en | - |
item.openairecristype | http://purl.org/coar/resource_type/c_18cf | - |
item.cerifentitytype | Publications | - |
item.openairetype | Master Thesis | - |
Appears in Collections: | Master Degree / Yüksek Lisans Tezleri |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
10564670.pdf | 52.69 MB | Adobe PDF | View/Open |
CORE Recommender
Page view(s)
134
checked on Nov 18, 2024
Download(s)
64
checked on Nov 18, 2024
Google ScholarTM
Check
Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.