<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns="http://purl.org/rss/1.0/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel rdf:about="http://hdl.handle.net/11508/11725">
<title>BASKİL MESLEK YÜKSEKOKULU</title>
<link>http://hdl.handle.net/11508/11725</link>
<description/>
<items>
<rdf:Seq>
<rdf:li rdf:resource="http://hdl.handle.net/11508/21051"/>
<rdf:li rdf:resource="http://hdl.handle.net/11508/21050"/>
<rdf:li rdf:resource="http://hdl.handle.net/11508/21049"/>
<rdf:li rdf:resource="http://hdl.handle.net/11508/20993"/>
</rdf:Seq>
</items>
<dc:date>2026-04-27T13:48:43Z</dc:date>
</channel>
<item rdf:about="http://hdl.handle.net/11508/21051">
<title>Çiçek görüntülerinde derin öğrenmeyle süper çözünürlük: SRCNN ve SRGAN modellerinin karşılaştırılması</title>
<link>http://hdl.handle.net/11508/21051</link>
<description>Çiçek görüntülerinde derin öğrenmeyle süper çözünürlük: SRCNN ve SRGAN modellerinin karşılaştırılması
Ünlü, Elif Işılay; Çınar, Ahmet
Günümüzde, görüntü işleme ve derin öğrenme teknikleri, düşük çözünürlüklü&#13;
görüntülerin yüksek çözünürlüklü hale getirilmesi amacıyla yaygın olarak kullanılmaktadır.&#13;
Süper çözünürlük, birçok görüntü işleme algoritması için daha fazla veri zenginliği sağlar. Bu&#13;
da öğrenme algoritmalarının ve yapay zeka modellerinin daha iyi performans göstermesine&#13;
olanak tanır. Bu nedenlerle, süper çözünürlük, birçok uygulama alanında görüntü kalitesini&#13;
artırmak ve analiz yeteneklerini geliştirmek için önemli bir araç olarak kabul edilir. Bu&#13;
bağlamda, bu çalışmada çiçek görüntüleri üzerinde süper çözünürlük yöntemleri uygulanarak,&#13;
estetik değeri yüksek ve detayları zengin görüntüler elde etme potansiyelini artırmak&#13;
amaçlanmıştır. Çiçek görüntülerine uygulanan SRCNN ve SRGAN gibi farklı süper çözünürlük&#13;
yöntemleri arasındaki karşılaştırmalar ve avantajlar da ele alınmıştır. Bu yöntemler arasında&#13;
SRGAN (Super-Resolution Generative Adversarial Network) gibi GAN tabanlı modellerin,&#13;
doğal görüntü üretimindeki yetenekleri sayesinde öne çıktığı görülmüştür.
</description>
<dc:date>2023-12-20T00:00:00Z</dc:date>
</item>
<item rdf:about="http://hdl.handle.net/11508/21050">
<title>GAN (Generative Adversarial Network) kullanarak temel gerçeklik görüntüleri üretme</title>
<link>http://hdl.handle.net/11508/21050</link>
<description>GAN (Generative Adversarial Network) kullanarak temel gerçeklik görüntüleri üretme
Ünlü, Elif Işılay; Çınar, Ahmet
Görüntü segmentasyonu görüntü üzerindeki her bir pikselin sınıflandırılmasıdır ve görüntü üzerinde&#13;
bulunan tüm nesne alanlarının bir haritasını oluşturmaktır. Segmentasyon, biyomedikal, çevre, coğrafya vb.&#13;
birçok alanda görüntülerin analizinde yaygın olarak kullanılmaktadır. Segmentasyon için kaynak&#13;
görüntülerin yanı sıra bu görüntülere karşılık gelen temel gerçeklik görüntüleri mevcut olmalıdır. Ancak&#13;
temel gerçeklik bilgilerini manuel olarak elde etmek çok fazla çaba ve zaman gerektirir. Bu çalışmada&#13;
amacımız derin öğrenme tabanlı, uydu görüntülerinden temel gerçeklik görüntülerini üretebilen bir sistem&#13;
geliştirmektir. Uydu görüntüleri GAN(Generative Adversarial Network) mimarisi kullanılarak eğitilmiştir.&#13;
Model girdi olarak uydu görüntüsünü alır ve çıktı olarak hedef görüntüyü (google harita görüntüsü)&#13;
oluşturur. Önerilen sistem, belirli bir uydu görüntüsüne karşılık gelen google harita görüntüsünü ve&#13;
beklenen google harita görüntüsünün çıktısını verir. Benzerlik görsel olarak analiz edilebilmektedir.
</description>
<dc:date>2022-09-10T00:00:00Z</dc:date>
</item>
<item rdf:about="http://hdl.handle.net/11508/21049">
<title>Derin öğrenme algoritmaları ile OCT görüntülerinden retina hastalıklarının sınıflandırılması</title>
<link>http://hdl.handle.net/11508/21049</link>
<description>Derin öğrenme algoritmaları ile OCT görüntülerinden retina hastalıklarının sınıflandırılması
Ünlü, Elif Işılay; Çınar, Ahmet
Son yıllarda retina bozuklukları ciddi bir sağlık sorunu haline gelmiştir. Retina bozuklukları yavaş ve belirgin belirtiler olmadan gelişir. Her yıl dünya çapında milyonlarca kişiye retina hastalığı teşhisi konmaktadır. Optik Koherens Tomografi (OCT), hastalıklı retina katmanlarındaki nicel ayrımı analiz edebilen ve belirleyebilen yüksek çözünürlüklü bir tanı teknolojisidir. OCT - Işık dalgalarını kullanan optik koherens tomografi, retinanın enine kesit fotoğraflarını çeken invazif olmayan bir görüntüleme prosedürüdür. Bu çalışmada OCT taramalarını kullanarak retina anormalliklerini tespit etmek ve sınıflandırmak için bir çok katmanlı konvolüsyonel sinir ağı (CNN) olan EfficientNet kullanılmıştır. Önerilen yöntem, 84.484 görüntü içeren açık kaynaklı retinal OCT veri seti üzerinde uygulanmış ve %96, 8 test doğruluğu elde edilmiştir.
</description>
<dc:date>2022-10-15T00:00:00Z</dc:date>
</item>
<item rdf:about="http://hdl.handle.net/11508/20993">
<title>Segmentation of Benign and Malign lesions on skin images using U-Net</title>
<link>http://hdl.handle.net/11508/20993</link>
<description>Segmentation of Benign and Malign lesions on skin images using U-Net
Ünlü, Elif Işılay; Çınar, Ahmet
One of the types of cancer that requires early diagnosis is skin cancer. Melanoma is a deadly type of skin cancer. Computer-aided systems can detect the findings in medical examinations that human perception cannot recognize, and these findings can help the clinicans to make an early diagnosis. Therefore, the need for computer aided systems has increased. In this study, a deep learning-based method that segments melanoma with color images taken from dermoscopy devices is proposed. For this method, ISIC 2017 (International Skin Image Collaboration) database is used. It contains 1403 training and 597 test data. The method is based on preprocessing and U-Net architecture. Gaussian and Difference of Gaussian (DoG) filters are used in the preprocessing stage. It is aimed to make skin images more convenient before U-Net. As a result of the segmentation performed with these data, the education success rate reached 96-95%. A high similarity coefficient obtained. On the other hand, as a result of the training of the preprocessed data, accuracy rate has reached 86-85%.
</description>
<dc:date>2021-11-13T00:00:00Z</dc:date>
</item>
</rdf:RDF>
