30 Haziran 2024 Pazar

32

 1. GİRİŞ




Bu tezin amacı, bir problemin optimizasyonunda yerel algoritmaların rolünü göstermek ve çalışma yöntemini ortaya koymaktır. Problemi optime etme sürecinde belli bir amaç fonksiyonu belirlenerek bu fonksiyonun en iyi sonuca ulaşması sağlanır (Michalewicz ve Schoenauer, 1996). Bunun için bir sezgiselüstü algoritma eğitmen olarak alınır ve belirlenen test fonksiyonu aracılığıyla amaç fonksiyonu optime edilir (Abdel-Basset ve ark., 2018). Optimizasyonun başarısı, test fonksiyonunun optimizasyon değerine ve yakınlığına bağlıdır. Bu da sezgiselüstü algoritmasının keşif ve sömürü dengesini sağlamasıyla doğru orantılıdır (Dieterich ve Hartke, 2012). Sömürü aşamasının güçlendirilmesi ve böylelikle sürecin başarıya ulaşması için yerel arama algoritmalarına ihtiyaç vardır. Bu ihtiyacı karşılamak için çalışmada Tepe Tırmanma algoritması (Bohlin, 2009) ve Nelder-Mead simplex metodu (NM) kullanıldı (Dennis ve Woods, 1985).

İlk olarak tekil çözüme dayalı Benzetilmiş Tavlama algoritmasının (Simulated Annealing -SA) optimizasyon sürecinde sömürü aşamasını sağlayan unsur olarak Rasgele Yeniden Başlatma Tepe Tırmanma algoritması (Randonm Restart Hill- Climbing -RRHC) ele alınmıştır (Mirjalili, 2020). Bu algoritma komşuluk ilişkilerini kullanarak yerel optimaya takılmayı önlemektedir. Bu uygulamadaki hedef SA algoritmasının SCA’nın sonuçlarına etki düzeyini göstermektir.

İkincisi Nelder-Mead Simplex metodunun minimizasyon problemleri için düzenlenişi ve diğer sezgiselüstü algoritmalarla hibrit oluşturması (Sinüs-Kosinüs Algoritması, Guguk Kuşu Algoritması, Harris Şahinleri Algoritması, Yusufçuk Böceği Algoritması vb.) ve sonuçlarına yer verilerek optimum çözümün güçlendirilmesi hedeflenmiştir (Xu, 2018). Nelder-Mead arama algoritması, kısıtsız doğrusal olmayan optimizasyon problemlerini çözmek için yaygın olarak kullanılmaktadır. Bu yöntem en güncel, türev içermeyen, doğrusal olmayan optimizasyon algoritmalarından biridir ve yerel optimizasyon için iyi bir seçimdir. Bu yöntemde optimizasyon, yeni noktalar oluşturmak için yapılır. Yeni nokta daha iyi bulunursa bu yeni nokta daha önce bulunan kötü noktayı değiştirir. Böylece küresel arama için yerel en iyi noktalar bulunarak sonuçlandırılır (Chen ve ark., 2019; Izci ve ark., 2020). Çalışmada SCA-NM

 



hibrit uygulamasıyla NM yerel algoritmasının SCA’yı güçlendirme potansiyeli istatistiki olarak değelendirilmiştir.


1.1. Optimizasyon


Tarihi eski medeniyetlere kadar dayanan optimizasyon konusu ilk defa antik Nil Nehri’nde görülen taşkınlardan dolayı arazi maliyetlerindeki değişimi göz önünde bulundurarak tarla vergilerinin toplanması için ideal bir sistemin kurulmasında kullanılmıştır. 17. yüzyılda Newton ve Leibniz tarafından Calculus’ün geliştirilmesi, optimizasyon teorisi için bir dönüm noktası olarak değerlendirilmektedir. Calculus’un geliştirilmesi ile matematiksel bir problemin maksimum ya da minimum değeri ile bu değerin elde edilmesini sağlayan bağımsız değişkenlerin değerlerinin belirlenmesi mümkün hale gelmiştir. İkinci Dünya Savaşı’nın ardından bilgisayar teknolojilerindeki gelişmesiyle yeni nesil optimizasyon teknikleri ortaya atılmış ve daha karmaşık optimizasyon problemlerinin çözümü mümkün hale gelmiştir (Gottfried ve Weisman, 1973).

Optimizasyon kavramı, kısaca belli alternatifler kümesinden en uygun olan elemanın seçilmesi olarak tanımlamak mümkündür (Pehlivanoğlu, 2017). Optimizasyon, en iyileme anlamına gelmektedir (Murty, 2003). En iyileme kelimesi, soyut bağlamda bir kararın verilmesi ya da somut manada sistemin veya sistem parçalarının tasarımlarının yapılması süreçlerinde elde edilecek somut ürünün mümkün mertebe mükemmel olabilmesi için yapılan eylem, takip edilen süreç veya yöntem anlamına gelmektedir (Eker, 2020). Optimizasyon teknikleri olabildiğince kolay aynı zamanda, esnek ve türev bilgisi gerektirmeyen, lokal optimadan kaçabilen özellikleriyle farklı alanlara ait çok çeşitli problemlere uyarlanabildiği için (Mirjalili ve Lewis, 2016) mühendislik, ekonomi, bilim gibi çeşitli alanlarda kullanılmaktadır (Rao ve Desai, 1980; Antoniou ve Lu, 2007; Ursayev ve Pardalos, 2013).

Optimizasyon yöntemleri birçok uygulamada, özellikle bilgisayar mühendisliği alanında oldukça önemli bir yere sahiptir. Çok boyutlu optimizsyon problemlerinin çözümü için Evrimsel Algoritmalar geliştirilmiştir. Parçacık Sürü Optimizasyon Algoritması (Particle swarm optimization, PSO), Ateş Böceği Algoritması (FA) ve Genetik Algoritma (GA) gibi çeşitli evrimsel algoritmalar çoğunlukla karmaşık optimizasyon problemlerini çözmek için kullanılmaktadır (Yang, 2010).  Yalnızca bir

 



parametrenin optimizasyonunu gerektiren optimizasyon problemleri tek fonksiyonlu optimizasyon problemi, birden fazla değişkenin optimize edilmesini gerektiren problemler çok fonksiyonlu optimizasyon problemi olarak ele alınır (Yang ve ark., 2013). Optimizasyon algoritması, sonuçlandırma mekanizmasını hızlandırmakta, bunun yanında kararın niteliğni yükseltmektedir. Günlük yaşamda yüz yüze kalınan sorunlara etkili, sahici, kalıcı çözüme katkı sunmaktadır (Winston, 2003).


1.2. Yerel Arama Algoritmaları


Tipik bir yerel arama sahici, kalıcı çözüme katkı sunmaktadır (Winston, 2003). Arama prosedürü, aday çözümlerin onaylama ya da reddedilmesi şeklinde geliştirilen rastgele bir başlangıç çözümüyle başlar (Burke ve Baykov, 2017). Yerel arama algoritma ailesi istatistiksel fizikten esinlenen Benzetilmiş Tavlama (Kirkpatrick ve ark., 1983) ve evrimsel biyolojiden esinlenen Genetik Algoritmadan ilham alır (Holland, 1992). Yerel arama algoritmaları birden çok yol yerine tek bir yol üzerindeki düğümü kullanarak çalışır ve genellikle yalnızca bu düğümün komşularına doğru hareket eder. Tipik olarak, aramanın izlediği yollar korunmaz. Yerel arama algoritmalarının iki temel avantajı vardır. Bunlar sabit bir miktarda çok az bellek kullanırlar ve sistematik algoritmaların uygun olmadığı büyük veya sürekli arama uzaylarında genellikle makul çözümler bulabilirler. Yerel arama algoritmaları, hedef bulmanın yanı sıra hedefin bir amaç fonksiyonuna göre en uygun durumu bulmak olduğu optimizasyon problemlerini çözmek için kullanışlıdırlar (Lourençko ve ark., 2003; Chawla ve Duhan, 2018). Bu yerel arama algoritmalarından ikisi en dik yokuş olarak da adlandırılan; Tepe Tırmanma (Hill-Climbing) algoritması (Burke ve Baykov, 2017) ve Nelder-Mead (Nelder ve Mead, 1965) algoritmalarıdır.


1.2.1. Tepe tırmanma (Hill Climbing, HC) algoritması


HC tekniği yerel bir arama optimizasyon algoritma tekniğidir. Mevcut çözüm geliştirilerek küresel bir optimizasyon tekniğiyle birleştirilir. Çözümü iyileştirmek için sezgiselüstü algoritma ile elde edilen mevcut çözümü araştırmaya başlar; HC’nin bulduğu çözüm, mevcut çözümden daha iyiyse yeni çözüm oluşturulur aksi takdirde reddedilir. Bu teknik sayesinde sömürü ile keşif arasında denge sağlanmış olur

 



(Shirvani, 2020). HC tekniği sayesinde erken yakınsayan birçok sezgiselüstü algoritma erken yakınsamadan kurtulabilir. HC yerel arama algoritmasını anlamak için, aşağıda Şekil 1.1 dikkate alınabilir. Bu şeklin yatay ekseni arama uzayının yerel konumunu dikey ekseni ise amaç fonksiyonunu göstermektedir. Yerel arama algoritmaları bu alanı keşfeder. Yerel arama algoritması, varsa her zaman bir hedef bulur; optimal bir algoritma her zaman küresel bir minimum ya da maksimum bulur. Aşağıdaki şekil aynı zamanda tek boyutlu bir arama uzayı grafiğidir ve amacı küresel maksimumu bulmaktır. HC arama algoritması, okla gösterildiği gibi iyileştirmeye çalışmak için mevcut durumu değiştirir. Süreç herhangi bir komşunun daha yüksek bir değere sahip olmadığı bir "zirveye" ulaştığında sona erer (Russel ve Norvig, 2013). HC algoritması ileride nereye gideceğini düşünmeden iyi bir komşu nokta yakalamaya çalıştığı için açgözlü yerel arama olarak da adlandırılır. Bu özelliğinden dolayı bazı dezavantajlara da sahiptir. Bunlar, Şekil 1.1 incelendiğinde de görüleceği gibi küresel maximum noktaya ulaşmadan yerel bir maximum noktaya takılmalarıdır. Özellikle tepe sırtlarında var olan yerel maximum noktalar açgözlü algoritmaların tırmanmasının çok zor olduğu yerlerdir. Yokuş yukarı çıkışın olmadığı düz bir yerel maximumda tepe tırmanma arama algoritması kaybolabilir ancak izin verilen ardışık yan hareketlerin sayısına bir sınır konduğunda bu problem aşılabilir.


Şekil 1.1. HC yerel arama algoritması.

 



HC’nin problemin büyüklüğüne bağlı çözümler üretmesini sağlayan birkaç farklı kullanımı söz konusudur (Russel ve Norvig, 2013). Bunlar; Olasılıksal HC (Stochastic hill climbing, SHC), yokuş yukarı hareketler arasından rastgele seçim yapar, yokuş yukarı hareketin dikliğine göre seçim olasılığı değişebilir. Bu genellikle HC’ den daha yavaş yakınsar, ancak bazı arama uzaylarında daha iyi çözümler bulabilir (Juels ve Wattenberg, 1996).

İlk Tercih HC (First-choice hill climbing, FCHC), mevcut durumdan daha iyi olan bir durum oluşturulana kadar rastgele ardıllar oluşturarak SHC uygular. Mevcut durumun binlerce ile ifade edilebilecek çok sayıda komşusu varsa, FCHC iyi bir strateji haline gelebilir (Hwang ve Kim, 2011).

Rastgele yeniden başlatma HC (Random restart hill-climbing, RRHC) şu ana kadar bahsedilen tepe tırmanma algoritmaları yerel optimalara takılma ihtimallerinden dolayı hedef bulmada başarısız olabilirler (Bhatia, 2013; Russel ve Norvig, 2013; O’Neil ve Burtscher, 2015). Bu tarz handikapları gideren RRHC bir hedef bulunana kadar, rastgele oluşturulmuş başlangıç durumlarından bir dizi tepe tırmanma araştırması gerçekleştirir. Her bir tepe tırmanma aramasının başarı olasılığı p ise beklenen yeniden başlatma sayısı (except restart of number, ERN),


(1.1)


olarak ifade edilir.

Hill-Climbing algoritmasının (Bhatia, 2013) çalıştırılması için iki değişkenli

 (   ) amaç fonksiyonu ve (     ) ilk başlangıç noktası olsun.

f fonksiyonunun (     )  a göre kısmi türevi alınsın.


 

  

    (

  

 

  

)   (

  

 

) (1.2)

 


Bu ifadede 𝜕 kısmi türevi, i ve j, x ve y’nin birim vektörleri göstermektedir.

Şimdi yeni noktalar düzenlensin.


(1.3)


(1.4)

 



Yukarıdaki eşitlikte h, adım boyutudur.  h ile ifade edilir. Sonra amaç fonksiyonu ( ( )), f’nin h’a göre türevi alınarak elde edilen bir fonksiyondur. h adım boyutunun ne olduğunu belirlemek için amaç fonksiyonunu minimize edecek şekilde sadece ( )’ın köklerini bulmaya ihtiyaç vardır.   ve   komşuluk noktalarını elde etmek için h değerini Eş.(1.3)’te yerine koyarak iteratif aramalar yapılır. Yeni noktalara dayanarak amaç fonksiyonunun türevinin sıfır olduğu noktaya ulaşana kadar aynı prosedür tekrarlanır. Bu kritik noktaya gelindiğinde klasik HC uygulanır ancak bu küresel minima olamama ihtimaline sahip olduğundan alternatif olarak yerel bir minimaya ulaştığında sürecin sonlanmasına izin vermeyen RRHC algoritması uygulanır. Başka bir ifadeyle rastgele bir başlangıç koşulundan (    ) başlayarak

aramaya başlanır ve bu başlangıç koşuluyla başka bir yerel arama uygulayarak iteratif olarak iyileştirme yapılır. Yerel bir minimuma ulaşıldığında, x ve y değerleri, fonksiyon değeriyle birlikte saklanır. Bu süreç maximum iterasyona varana kadar tekrarlanır. Sınıra ulaşıldığında, depolanan sonuçlara bakılır ve amaç fonksiyonunun en uygun değerini sağlayan x ve y değerleri çıktı olarak alınır (Bhatia, 2013).


1.2.2. Nelder-mead simpleks yöntemi


Nelder-Mead Simplex Metodu (NM) farklı doğrusal olmayan optimizasyon problemlerini çözmek için Nelder ve Mead tarafından geliştirilen doğrudan arama optimizasyon yöntemlerinin genel bir çerçevesidir (Nelder ve Mead, 1965). Nelder – Mead Simpleks Arama Algoritması, kısıtsız optimizasyon problemlemlerini çözmek için tasarlanmış bir doğrudan arama algoritmasıdır. Problemin herhangi bir gradyan bilgisine ihtiyaç duymaz ve uygulanması kolaydır (Xu, 2019). NM yöntemi aynı zamanda yinelemeli bir algoritmadır. D boyutlu minimizasyon fonksiyonu için D + 1 başlangıç köşeleri tarafından oluşturulan bir simpleksten başlar. Her yinelemede yeni bir simpleks elde etmek için bazı en kötü köşeler yeni oluşturulan köşelerle değiştirilecektir. Ardışık yinelemelerle yaklaşıldığında, simpleks yavaş yavaş optimuma yakın olacaktır. Ayrıntılı olarak NM yöntemi dört kontrol parametresi içerir. Yansıma faktörü α, genişleme faktörü β, kasılma faktörü γ ve büzülme faktörü δ ve NM yönteminin bir iterasyonu aşağıdaki adımları içerir (Nelder ve Mead, 1965; Lagarias, 1998):

 



Adım 1: Tüm köşeleri, amaç fonksiyon değerlerinin artan sırasına göre sıralanır ve yeniden numaralandırılır.


 (  )   (  )   (  )      (   )   (    ) (1.5)

Adım 2: Yansıtma noktasını hesaplanır   Eş. (1.5) ve uygun fonksiyon değeri o zaman  (  ),  Eğer  (  )   (  )   (  )  sonra  (    ) ile   değiştirilir ve adım 6’ya gidilir;

Eğer  (  )   (  ) ise adım 3’e,

Eğer  (  )    (  ) ise adım 4’e gidilir;


      (     )   ̅          (1.6)


Yukarıdaki eşitlikte  yansıma faktörünü belirtir ̅  hariç tüm köşelerin merkezini gösterir    eşitlik (1.6)


∑ 

 

 ̅                

 

 

(1.7)

 


Adım 3: Genişleme noktası hesaplanan   eşitlik (1.7) ve uygunluk fonksiyon değeri   aksi takdirde de    ile   değiştirilir ardından adım 6’ya gidilir.

Burada  genişleme faktörünü belirtir

Adım 4:  Eğer  (  )   (    ), daha sonra dış kasılma noktasını hesaplayın

eşitlik (1.8) ve uygunluk fonksiyon değeri  (   ); aksi takdirde, iç kasılma noktasını hesaplayın   Denk. (1.9) ve uygunluk fonksiyon değeri  (  );

     ̅ (    ) (1.8)


     ̅ (    ) (1.9)


(1.8) ve (1.9) eşitliklerinde , kasılma faktörünü belirtir. Durum için 

üretilir.

Eğer  (   )   (  ) sonra     ile   değiştirilir ve adım 6’ya gidin; aksi takdirde Adım 5’e gidilir. Durum için   üretilirse

 (  )  (   ), daha sonra   ile değiştirin ve adım 6’ya gidilir; aksi takdirde adım 5’e gidilir;

 



Adım 5, Hariç tüm köşeleri daraltılır   için eşitlik (1.10) un ürettiği yeni bir simpleks alınır ve adım 6’ya gidilir.

         (    ) (1.10)


ve  büzülme faktörünü belirtir.

Adım 6: Son koşul yerine getirilirse arama sonlandırılır, aksi takdirde bir sonraki yinelemeye gidilir (Feng ve ark., 2020).

 

noktaları           Örneğin; tek yönlü   şekil l'de gösterilen gibi bir üçgendir.



Şekil 1.2. Üçgen simpleks merkezi.




Görüldüğü gibi şekil 1.3.’te V bir simplex arama yönü ve sırasıyla;      ,

 



    yansıma noktası, genleşme noktası, iç sıkıştırma noktaları ve dış sıkıştırma noktaları bulunmaktadır.      en kötü ve en iyi köşe hariç tüm köşelerin en kötü köşe ve ağırlık merkezini ayrı ayrı temsil eder (liu ve ark., 2020).

 


Sezgisel yöntemler genellikle deneysel yöntemlerdir. En temel sezgisel yöntem “itratif” yöntem olup elde edilen sonuca göre yeni tekrarlara neden olur. Sezgisel yöntemin sorunu çözmede başarılı olabilmesi, büyük oranda üzerinde çalışılan sorunun iyi anlaşılmasına ve elde edilen tecrübenin maksimum oranda kullanılmasına bağlıdır. Bu anlamda sezgisel yöntem, sorun odaklı çözüm yöntemi olarak adlandırılabilir (Costa, 2016). Böyle bir bağın olumlu yönü, soruna kısa sürede uygun bir çözümün bulunmasıdır. Ancak diğer taraftan problem odaklı çözüm yöntemi, yerel bir çözümde takılıp kalmaya neden olabilmektedir. Bu nedenle sezgisel yöntemlerin tarama özelliklerini daha da geliştiren ve onu sorun odaklı yöntem olmaktan ziyade genel bir yönteme dönüştüren yaklaşımlara yönelinilmiştir. Sezgiselüstü yöntemler olarak isimlendirilen söz konusu yöntemler, bazen temel sezgisel yöntemleri kullanmakla beraber genel olarak kendilerine has yöntemlere başvururlar. Bir anlamda daha üst seviye işlem adımlarını içeren sezgiselüstü yöntemlerin, yerel çözüme takılmadan genel

 



çözüme ulaşmayı sağlayan, bununla beraber yerel çözümleri de gayet etkin bir şekilde çözümde kullanan yaklaşımları söz konusudur (Pehlivanoğlu, 2017; Eker, 2020).

Çoğu gerçek dünya probleminin çözülmesi oldukça zordur ve birçok uygulama bu karmaşık problemlerle uğraşmak zorundadır. Bu problemlerde, arama alanı problem boyutuyla birlikte katlanarak büyür. Bu nedenle geleneksel optimizasyon yöntemleri onlar için uygun bir çözüm sağlamaz. Uzun süredir, bu tür sorunları çözmek için birçok sezgiselüstü algoritma tasarlanmıştır. Araştırmacılar, veri kümeleme (Senthilnath ve ark., 2011) gibi çok çeşitli karmaşık problemlerde sezgiselüstü algoritmaların iyi performans gösterdiğini göstermiştir (Nanda, 2014). Sinir ağlarının ayarlanması (Malviya ve Pratihar, 2011) ve örüntü tanıma (Garai ve ark., 2013) vb. gibi çok çeşitli karmaşık problemlerde sezgiselüstü algoritmaların iyi performans gösterdiğini göstermiştir. Uzun yıllar boyunca insan, problemlere en uygun çözümü bulmak için doğanın rehberliğinden faydalandı. Bu nedenle son yıllarda, doğadan esinlenen algoritmalar geliştirmeye yönelik artan bir girişim olmuştur (Oftadeh, 2010; Zheng, 2015). Örneğin; Genetik Algoritma (Holland, 1975) önerilmiştir ve Darwnian evrim kavramlarını simüle etmektedir. Yapay Bağışıklık Sistemleri (Farmer ve ark., 1986) optimizasyon için biyolojik bağışıklık sistemlerini simüle eder. Karınca Kolonisi Optimizasyonu (Drigo, 1992) yiyecek arayan karıncaların davranışlarından esinlenmiştir. Parçacık Sürüsü Optimizasyonu (Eberhart ve Kennedy, 1995) bilinmeyen bir yere ulaşmaya çalışan göçmen kuş sürüsünün sosyal davranışını taklit eder. Bahsedilen algoritmalar, araştırmacılar tarafından birçok farklı alanda yaygın olarak kullanılmaktadır (Ludwig, 2013). Ancak tüm optimizasyon problemlerine en uygun çözümü elde edecek belirli bir algoritma yoktur. Bazı algoritmalar, bazı belirli problemler için diğerlerine kıyasla daha iyi çözüm sağlar (Wolpert ve Macready, 1997).

Son on yılda, sezgiselüstü teknikler şaşırtıcı bir şekilde çok popüler hale geldi. Bu popülerliğin başlıca nedenleri; esneklik, türev gerektirmeyen mekanizma ve yerel optimum noktalara takılmaktan kaçınmadır. İlk iki avantaj, sezgiselüstü yöntemlerin optimizasyon problemlerini yalnızca girdilere ve çıktılara bakarak ele alması ve çözmesinden kaynaklanmaktadır. Diğer bir deyişle; sezgiselüstü yöntemler, optimizasyon problemlerini bir kara kutu olarak varsayar. Bu nedenle, arama uzayının türevini hesaplamaya gerek yoktur. Bu, çeşitli sorunları çözmek için onları oldukça esnek hale getirir. Sezgiselüstü algoritmalar, olasılıksal optimizasyon ailesine ait

 



olduğundan rastgele operatörlerden yararlanırlar. Bu, genellikle çok sayıda yerel optimuma sahip olan gerçek dünya problemlerini çözerken yerel çözümlerden kaçınmalarına yardımcı olur (Mirjalili va ark., 2017).

Literatürde önerilen algoritmaların yararlarına rağmen, No-Free-Lunch (NFL) teoremine göre bu algoritmalardan hiçbiri tüm optimizasyon problemlerini çözmeye muktedir değildir (Wolpert ve ark., 1997). Optimizasyon problemlerini çözmede sezgiselüstü algoritmaların performansları aynı değildir ve her algoritma her problemi çözemez. Bu teorem, farklı alanlardaki yeni ve somut algoritmaların önemini ortaya koymaktadır (Ho ve Pepyne, 2002).

Sezgiselüstü algoritmaların en önemli yönü, arama ve çeşitlendirme özelliklerini barındıran keşif (exploration) ve yoğunlaşmaya sahip sömürü (exploitation) aşamalarından oluşmasıdır (Eker, 2020). Sürü temelli sezgiselüstü optimizasyon algoritmaları, sürünün ortak özelliğini paylaşır. Arama süreci keşif ve sömürü şeklinde iki aşamaya ayrılır (Alba ve Dorronsoro, 2005). Keşif, bir arama alanının tamamen yeni bölgelerini tespit etme işlemi iken; sömürü ise daha önce tespit edilen noktaların bulunduğu bölgedeki bir arama alanının tespit edilme işlemidir (Liu ve ark., 2013). Sömürü aşaması keşif aşamasını izler ve arama alanının gelecek vaat eden alanlarını ayrıntılı olarak araştırır. Dolayısıyla keşif, arama aşamasında bulunan gelecek vaat eden bölgelerdeki yerel arama yeteneği ile ilgilidir. Keşif ve sömürü arasında uygun bir denge kurmak, optimizasyon sürecinin olasılıksal yapısından dolayı, herhangi bir sezgiselüstü algoritma geliştirmede en zor görevdir (Mirjalili ve Lewis, 2016).

Herkesçe kabul görmüş sezgiselüstü birçok algoritma, literatürde de sıklıkla kullanılmaktadır. Tabiattan esinlenen sezgiselüstü algoritmalar, optimizasyon problemlerini fiziksel veya biyolojk olayları taklit ederek çözer. Şekil 1.4’te belirtildiği üzere üç ana kategoride gruplandırılabilirler. Bunlar evrim temelli, fizik temelli ve sürü temelli algoritmalardır. Bu algoritmalardan başlıcaları: Genetik Algoritma (Genetic Algorithm, GA ), Diferansiyel Gelişim Algoritması (Differential Evolution Algorithm, DE), Dağılım Arama Algoritması( Scatter Search Algorithm, SSA), Benzetim Tavlama (Simulated Annealing, SA), Sinüs Kosinüs Algoritması (Sine Cosine Algorithm, SCA), Rüzgâr Güdümlü Optimizasyon (Wind Driven Optimization, WDO), Parçacık Sürü Optimizasyon Algoritması (Particle Swarm Optimization, PSO), Gri Kurt Optimizasyon

 



Algoritması (Gray Wolf Optımızer, GWO), Yapay Arı Kolonisi Algoritması (Artificial Bee Colony, ABC) dır (Mirjalili ve Lewis, 2016).




Genetik algoritma, ilhamını Darwin’in doğal seleksiyon (seçim) ilkesinden alan evrim temelli bir algoritmadır (Haupt, 2004). Holland, 1975 yılında “Adaptation in Natural and Artificial Sytstems” isimli kitapla bunları bir arada toplamıştır. Bu, doğal seçim sürecinden esinlenen sezgiselüstü bir algoritmadır (Öztürk ve ark., 2018). GA, problem çözümünde başlangıçta oluşturulan random aday çözüm kümesinin genetik işlemcilere tabi tutulması ve amaç fonksiyonuna uygun hareket edenlerin sonraki yenilemede yeni aday çözümler üretmesi olarak tanımlanabilir (Satman, 2007).

Darwin’in ‘en güçlünün hayatta kalması’ teorisi GA’nın geliştirilmesi için temel oluşturur (Harman ve Hierons, 2007). Temel ilke, nüfustaki bireylerin kaynaklar için savaşmasıdır. Başarılı olan bireyler daha fazla yavru üretir ve genleri sonraki nesillere yayılır. Ebeveynlerin kromozomları, ebeveynlerin herhangi birinden daha iyi uygunluğa sahip olan yavrular üretmek için genleri değiştirerek birlikte çiftleşir. Bu süreç, türlerin çevreye uyum sağlamaları için daha iyi bireyler oluşturmak üzere nesiller boyu devam etmektedir (Holland, 1992).

 



Jang (1997)’ın GA uygulama metodu, bir arama alanındaki her noktayı, kromozom adı verilen ikili bit dizisi ile kodlar. Her noktanın bir fit değeri vardır. Genetik algoritmalar sürü tabanlı olarak noktalar kümesini korur. Tüm nesillerde algoritma, çaprazlama ve değişim gibi genetik işlemcileri değerlendirerek yeni bir sürü meydana getirir. Birkaç nesil sonra, sürüde bulunan elemanlar çözüme daha yakın uygunluk değerine sahip olurlar. Genetik algoritmalar; çözümlerin kodlanması, uygunlukların hesaplanması, çoğalma, çaprazlama ve değişim işlemcileri şeklinde parametreler içerdiğni bidirmektedir (Emel ve Taşkın, 2002). GA adımları (Öztürk ve ark., 2018) kaynağında ayrıntılı şekilde izah edilmiştir.


1.3.2. Diferansiyel evrim algoritması


İlk olarak Storn ve Price tarafından sunulan (Diferansiyel Evrim, DE) karmaşık optimizasyon problemleriyle başa çıkmadaki basitliği ve etkinliği nedeniyle şu anda kullanılmakta olan en popüler algoritmalar arasında yer alır (Storn ve Pirice., 1997). DE, sürüyü kademeli olarak global optimuma doğru hareket ettirmek için mutasyon, çaprazlama ve seçim operatörlerini bir araya getiren sürülü bir stokastik arama algoritmasıdır (Wang ve ark., 2011). DE ve diğer EA'lar arasındaki önemli fark, mutasyon operatöründeki çözüm farklılıklarını kullanmasıdır. DE, başlangıcından bu yana dikkate değer bir ilerleme kaydetmiştir (Das ve Suganthan, 2011). Sürü çeşitliliğinin sürdürülmesi (Biswas ve ark., 2014; Wang ve ark., 2014; Ahandani, 2016) yeni mutasyon ve çaprazlama stratejilerinin tasarımı yoluyla birçok performansı geliştirilmiş DE varyantı önerilmiştir (Zhu ve ark., 2013; Yang ve ark., 2015). Parametrelerin adaptasyonu diğer EA'larla hibridizasyon (Sayah ve Hamodua, 2013; Trivedi ve ark., 2016) ve çoklu arama stratejilerinin (Wang ve ark., 2011) akıllı kombinasyonu, DE’nin kısıtlı optimizasyon (Hamza ve ark., 2016), çok amaçlı optimizasyon (Qiu ve diğ., 2016) ve multimodal optimizasyon (Hui, 2015) gibi farklı optimizasyon alanları için verimli bir arama motoru olarak kabul edilmektedir .

Pek çok kanıt, DE'nin en uygun mutasyon stratejilerinin ve parametrelerinin değişik optimizasyon problemlerine uygulandığında genellikle farklı olduğunu ortaya koymaktadır (Qin ve diğ., 2009). Bunun nedeni; farklı mutasyon ve parametre ayarlarının DE'nin farklı sömürü ve keşif yeteneklerine sahip olmasını sağlamasıdır (Das ve Suganthan, 2011). Ayrıca; önceki çalışmalar bir optimizasyon problemini

 



çözerken gerekli mutasyon stratejilerinin ve parametrelerin evrim sürecinde bile değişebileceğini göstermiştir (Wu ve ark., 2016).

GA’daki seçim, çaprazlama ve mutasyon işlemleri DE’de de uygulanmaktadır. GA’da uygulandığı gibi bu işlem tüm sürüye sırayla uygulanmaz. Bu işlem tek tek her bir kromozom ele alınıp, rastgele seçilen diğer üç kromozom kullanılarak yeni bir örnek ortaya çıkarılmaktadır. Bu uygulamalar esnasında çaprazlama ve mutasyon parametreleri kullanılmaktadır. Bu işlem sonuç+unda var olan kromozom ile ortaya çıkan yeni kromozomun yararlılıkları mukayese edilip yararlı olan, ortaya çıkan yepyeni gen bir sonraki sürüye aktarılır. Bu şekilde seçim parametresinden de yararlanılmış olur. Ortaya çıkan sonuçların niteliği, amaç fonksiyonuna verilen değerle (uygunluk değeri) ölçülmektedir. DE diğer sezgisel algoritmalarla karşılaştırıldığında kolayca kodlanabilme konusunda daha başarılıdır. Diğer algoritmalar ile binlerce satır kodlama yapılırken DE için yaklaşık yirmi satırlık kod yeterli olur (Tuo, 2018; Hancer, 2019).


1.3.3. Dağılım arama algoritması


Dağılım Arama Algoritması (Scatter Search Algorithm, SSA) ilk olarak 1977'de Glover tarafından geliştirilmiştir (Glover, 1977). SSA, güçlü bir şekilde çözüm üretme ve yeni kombinasyon ilkeli bir yaklaşıma dayanan ve genetik algoritmalar gibi diğer evrimsel yöntemlerin rastlantısallığından uzaklaşan bir tür evrimsel algoritmadır. SSA'nin temel özelliği, yüksek kaliteli optimizasyon aracı olarak çözümlerin çeşitlendirilmesidir (Naderi ve Ruiz, 2014). SSA ile diğer evrimsel algoritma yöntemleri arasındaki temel fark çözümün seçilme şeklidir. SSA yönteminde, yeni sonuçlar üretmek için referans setinden iki veya daha fazla çözüm sistematik olarak seçilir (Hakli ve Ortacay, 2019). Öncelikle en iyi bireylerden oluşan bir referans seti (RefSet) belirlenir. "En iyi" kavramı, uygunluk değeri açısından en iyiyi değil, zindelik ve çeşitlilikle kullanılabilecek en iyi bireyler grubunu ifade eder. Referans setinin boyutu RFC olarak adlandırılır. Örneğin, çözümün uygunluk değeri, referans setinde yer almak için rekabet eden diğer çözümlerden daha düşük olsa bile setin çeşitliliğini artırabilirse bu kişi referans setine eklenebilir. Oluşturulan referans kümesinden, kombinasyon işlemlerini gerçekleştirmek için alt kümeler oluşturulur. Alt kümedeki bireylere kombinasyon süreci uygulanarak yeni bireyler elde edilir. RefSet içerisindeki çözümlerle birlikte havuza yeni çözümler eklenir. RefSet daha sonra bu havuzdan farklı

 



yöntemler kullanılarak bireyler seçilerek güncellenir. Güncelleme sonrasında RefSet'te değişiklik yoksa yeni bir sürü oluşturulur ve bu sürüdan seçilen bireyler proses durdurma kriteri karşılanana kadar RefSet'e eklenir (Glover, 1997; Laguna ve Marti, 2005).


1.3.4. Rüzgâr güdümlü optimizasyon algoritması


Rüzgâr Güdümlü Optimizasyon (Wind Driven Optimization, WDO) algoritması, Bayraktar tarafından önerilen çok boyutlu ve çok modlu problemler için parçacık tabanlı optimizasyona benzer şekilde arama alanında kısıtlamalar uygulama potansiyeline sahip yeni bir sezgisel, yinelemeli ve sürü tabanlı küresel optimizasyon tekniğidir (Bayraktar ve ark., 2010; Bayraktar ve ark., 2013). WDO, hava basıncındaki yatay dengesizlikleri eşitlemek için dünya atmosferindeki rüzgârın hareketinden esinlenmiştir. Merkezinde, son derece küçük hava parsellerinden oluşan bir sürü, dünya atmosferi içindeki hava parsellerinin hareketini ifade etmek için kullanılan Newton'un ikinci hareket yasasını kullanan boyutsal arama uzayını baz alır. Benzer parçacık tabanlı prosedürlerle karşılaştırıldığında, WDO sağlamlık ve ince ayar için ekstra serbestlik dereceleri sağlamak için kullanılan yerçekimi ve Coriolis kuvvetleri gibi hız güncelleme eşitlikindeki ek terimlerden yararlanır (Mathew, 2017; Ranjan ve ark., 2017). Basınç gradyanı (  bir mesafede) olarak ifade edilir (Bayraktar ve ark., 201 ) 


 

  

    (

  

 

) (1.10)

 


Hava paketi üzerindeki net kuvvet şu şekilde verilmiştir (Ranjan ve ark., 2017):


  ⃗   ∑ ⃗ (1.11)


Yukarıdaki eşitlikte ⃗ hava paketlerine etki eden tüm kuvvetlere karşılık gelir.

 ve ̅ sırasıyla bir hava parselinin hava yoğunluğu ve ivmesidir. Hava paketinin basıncı, yoğunluğu ve sıcaklığı arasındaki ilişki şu şekilde verilmiştir (Bayraktar ve ark., 2013; Mathew, 2017):

(1.12)

 



Yukarıdaki eşitlikte, R küresel gaz sabiti P basınç ve T sıcaklığı ifade eder.

Hava parselinin hareketini tanımlayan dört ana kuvvet sonsuz hacme sahiptir. Basınç gradyan kuvveti  Sürtünme Kuvveti FF, Yerçekimi Kuvveti Fg ve Coriolis kuvveti Fc ve aşağıdaki eşitliklerle tanımlanabilir (Bayraktar ve ark., 2013; Mathew, 2017):


 

 ⃗ 

 ⃗   ⃗

 ⃗        ⃗⃗

 ⃗    ⃗⃗ }

 



(1.13)

 


Bu kuvvetlerin her birini yöneten fiziksel eşitlikler yukarıda verilmiştir. Burada

 son derece küçük miktarda hava hacmini temsil eder. P basınç gradyanıdır, Ω dünyanın dönüşünü temsil eder, g yerçekimi ivmesidir ve u rüzgârın hız vektörüdür. Bu kuvvetler eşitlik olarak aşağıdaki gibi ifade edilir (Bayraktar ve ark., 2010):

 ⃗⃗    (   ⃗)  (     )  (   ⃗⃗)  (     ⃗⃗) (1.14)


1.3.5. Parçacık sürü optimizasyon algoritması


Eberhart ve Kennedy (1995) tarafından önerilen Parçacık Sürüsü Optimizasyon Algoritması (Particle swarm optimization, PSO), sürüye dayalı bir olsalıksal optimizasyon tekniğidir (Golmakani ve Fazel, 2011). PSO algoritması; böcekler, sürüler, kuşlar ve balıklar dâhil olmak üzere birçok hayvanın sosyal davranışını simüle eder. Bu sürüler yiyecek bulmak için işbirliğine dayalı bir yola uyar ve sürüdeki her üye, kendi ve diğer üyelerin öğrenme deneyimlerine göre arama modelini değiştirmeye devam eder (Wang ve ark., 2018). PSO algoritmasının ana tasarım fikri iki araştırma ile yakından ilişkilidir: Evrimsel Algoritma ve yapay yaşamdır. Yani yapay sistemleri yaşam karakteristiği ile inceler. Yapay yaşam teorisi ile sosyal hayvanların davranışını inceler (Van den Berg, 2001).

 

 




 


i=1,2,3…,NP olup sürünün büyüklüğünü NP olduğu, tek iteresyon için w atalet ağırlığının doğrusal yazılışını, 𝑐 bilişsel bileşenlerin  sosyal bileşenlerin göreceli etkisini gösteren öğrenme etmenleridir.   [0,1] arasındaki herhangi rastgele sayılardır.         sırasyla i bireyinin t. yinelmesi için boyutu d. olan konum, hız

ve kişisel en ideal değerlerdir. Şartlar aynı olduğu zaman sürünün en ideal parçacığı ise

     dir.


1.3.6. Gri kurt algoritması (Grey Wolf Optımızer, GWO)


GWO algoritması, 2014 yılında Mirjalili ve arkadaşları tarafından tanıtılan yeni bir sürü tabanlı algoritmadır (Shakarami ve Davoudkhani, 2016). Boz kurt (Canis lupus), ailesine aittir. Şekil 1.5'te gösterildiği gibi çok katı bir sosyal baskın hiyerarşiye sahip olmaları özellikle ilginçtir. Liderlere alfa denir. Alfa; çoğunlukla av, uyuma yeri, uyanma zamanı ve benzeri şeyler hakkında kararlar vermekten sorumludur. Gri kurt

 



hiyerarşisindeki ikinci seviye betadır. Betalar, karar verme veya diğer paket faaliyetlerinde alfaya yardımcı olan ikincil kurtlardır. Beta kurt, alfa kurtlardan birinin ölmesi veya çok yaşlanması durumunda muhtemelen alfa olmaya en iyi adaydır. Omega, en düşük rütbeli gri kurttur. Omega kurtlar günah keçisi rolünü oynarlar. Omega kurtları her zaman diğer baskın kurtların tümüne boyun eğmek zorundadır. Onlar yemesine izin verilen son kurtlardır. Bir kurt bir alfa, beta veya omega değilse ona ast (veya bazı referanslarda delta) denir. Delta kurtları alfa ve betalara boyun eğmek zorundadır, ancak omega'ya hükmederler. İzciler, nöbetçiler, yaşlılar, avcılar ve bakıcılar bu kategoriye girer (Mirjalili, 2014; Muro ve ark, 2011).



Şekil 1.5. Gri Kurt hiyerarşisi.

GWO'yu tasarlarken kurtların sosyal hiyerarşisini matematiksel olarak modellemek için, en uygun çözümü alfa (α) olarak kabul ediyoruz. Sonuç olarak ikinci ve üçüncü en iyi çözümler sırasıyla beta (β) ve delta (δ) olarak adlandırılır. Aday çözümlerin kalanı, omega olduğu varsayılır (ω). Gri kurtlar, av sırasında avın etrafını sarar. Çevreleyen davranışı matematiksel olarak modellemek için aşağıdaki eşitlikler önerilmiştir (Muro ve ark., 2011; Mirjalili, 2014).

 ⃗⃗  | ⃗ ( ) ⃗   ⃗( )| (1.17)


 (    )   ⃗ ( )  ⃗⃗ ⃗ (1.18)


Yukarıdaki eşitliklerde verilen t mevcut iterasyonu, aşağıdaki eşitlikler ise konum vektörlerini formülüze eder.

 




 

 ⃗     ⃗ 

 ⃗    ⃗  ⃗

 

} (1.19)

 


  Avın konum vektörlerini,   bir gri kurdun konum vektörünü ifade eder. a, 2’den 0’a doğrusal olarak düşürülür.   ve  ,   kapalı aralığında rastgele bir vektördür (Mirjalili ve ark., 2014; Shakarami ve Davoudkhani, 2016).


1.3.7. Yapay arı koloni algoritması


Karaboğa bu algoritmayı 2005’te gerçek parametre optimizasyonu için gündeme getirmiştir. Yapay Arı Kolonisi Algoritması (ABC) bir arı kolonisinin yiyecek arama











bulmak için gayret göstermektedir (Akay, 2009; Küçüksille ve Tokmak, 2011).

Yiyecek keşfinin başlangıcında kâşif arılar yiyecek ararlar. Kaynağı keşfeden arının bundan sonraki vazifesi bulduğu nektarı kovaya götürmektir. Kovaya götürdüğü nektardan sonra dans ederek diğer arılara kaynağın yeri hususunda bilgi verir. Kaynağın nektarı bitinceye kadar kâşif arı görev sahibi olur. Nektar tükendikten sonra tekrar kâşif arı olur. Gözcü arılar ise dansı izledikten sonra yiyeceğin niteliği açısından kaynak noktasında bir karar verirler (Küçüksille ve Tokmak, 2011). Arılar polen, bal ya da nektar aramak için yiyecek kaynaklarına hareket etmektedir. Yiyecek kaynağının kalitesi, nektar yoğunluğu, cinsi, yuvaya olan mesafesi, nektarın çıkarılmasının kolaylığı gibi birçok faktörle ilişkilidir (Karaboğa, 2011).

Güçlü bir arama sürecinde, keşif ve sömürü aşamaları beraber yürütülmelidir. ABC’de, gözcüler ile istihdam edilen arılar arama alanında sömürü aşamasını yürütürken keşif aşamasını izciler kontrol eder. Gerçek bal arıları söz konusu olduğunda, işe alım oranı, arı kolonisinin yeni keşfedilen bir besin kaynağını ne kadar çabuk bulup kullandığının bir “ölçüsünü” temsil eder. Yapay işe alım, benzer şekilde

 



zor optimizasyon problemlerinin uygulanabilir çözümlerinin veya "kaliteli" çözümlerinin keşfedilebileceği hızın "ölçümünü" temsil edebilir. Arı kolonisinin hayatta kalması ve ilerlemesi, en iyi gıda kaynaklarının hızlı keşfine ve verimli kullanımına bağlıdır (Karaboga ve Basturk, 2008).


1.3.8. Benzetilmiş tavlama algoritması


Benzetilmiş Tavlama (Simulated Annealing, SA) algoritması, küresel optimizasyon problemlerinde kullanılan güncel ve özgün bir olasılıksal algoritmadır (Kirkpatrick ve ark., 1983). Adı ve ilham kaynağı metalurjide tavlamadan kaynaklanır. Tavlama, bir malzemenin ısıtılmasını ve kontrollü soğutulmasını içeren bir işlemdir. Atomlar, ısıtılarak başlangıç konumlarından çıkarılır ve yüksek enerjili hallerde rastgele dolaşırlar. Daha düşük iç enerjili konfigürasyonları başlangıçta olduğundan daha fazla bulma şansı yavaş soğutma ile sağlanır. Bu fiziksel süreçle benzer şekilde, SA’da her uygulanabilir çözüm, bir fiziksel sistemin durumuna benzer ve en aza indirilmesi gereken uygunluk fonksiyonu, bu durumda sistemin iç enerjisi ile aynı işlevi görür. İstenilen davranış, sistemi rastgele bir başlangıç durumundan sistemin enerjisinin minimum düzeyde olduğu bir duruma getirmektir. Her aşamada SA, mevcut çözümü hem ilgili uygunluk değerleri arasındaki farklılığa hem de ısı ( ) olarak adlandırılan bir parametreye bağlı olarak olasılıkla yakın rastgele bir çözümle değiştirir (Aarts ve ark., 2005).

SA’nın ana ayrıcalığı, metropol süreci denilen yerel optimumdan kaçabilmesidir. SA, Metropolis kuralına dayanan mevcut çözümden daha kötü bir çözümü kabul ettiği anlamına gelen rastgele bir arama algoritmasıdır, bu nedenle küresel optimum çözümün elde edilmesini kolaylaştırabilecek yerel optimum çözümden vazgeçmesi mümkündür (Xie ve ark., 2020). Metropol kuralları, uygunluk değeri düşük olan komşu çözümün mevcut çözüm olarak kabul edilip edilmediğini göstermek için kullanılır. Bu komşuluk üretme mekanizması tepe tırmanma algoritması sayesinde sağlanır. Komşuluk oluşturma davranışının onay mekanizması metropolis yaklaşımı ile sağlanmıştır (Gerşil ve Palamutçuoğlu, 2013). Bu mekanizma, SA’nın yerel optimum koşullardan kaçma kabiliyetini etkiler. Metropolis sürecini kabul etme olasılığını kullanarak en uygun çözüm olan en düşük enerji durumunu bulmada tavlama mekanizmasını simüle edebilir (Askerzadeh ve ark., 2016). SA’nın işlem aşamaları en iyi çözümden kaçmayı sağlayan

 



mekanizma dışında HC algoritmasına benzer. Bir seçimde değişikliği seçme olasılığı Eş.1.20 ve Eş.1.21 ayrıca ısıyı düşürmek için de Eş.1.22 kullanılmıştır (Mirjalili, 2020).


 

(1.20)


    ( )   (  ) (1.21)


(1.22)


Bu eşitliklerde  kontrol parametresi mevcut ısıyı,  amaç fonksiyonunu, kontrol parametrelerinin seçiminden sonra başlatılan ilk çözümü, ise ’nın komşu çözümlerinden birini temsil eder. , ’dan ’ye hareketin iyi ya da kötü bir hareket olduğunu belirleyen bir operatördür. Maximizasyon durumunda  ( )   ( ) ise olacak ve SA onu seçecektir. Aksi halde   olacak ve ’dan  ’ye hareket iyi bir hareket olarak algoritma tarafından seçilecektir. B’yi kabul etmek için ( ) aralığında metropolis kriteri adı verilen bir  rastgele sayısı seçilir,  yeni bir çözüm için olasılıksal karar vermek için kullanılır ve   olmalıdır (Askerzadeh ve ark., 2016). Ayrıca Eş.7’de yer alan , bir düşürme faktörü olarak ( ) aralığında seçilen ancak uygulamalarda genellikle 0.9 ile 0.99 arasında değer verilen rasgele bir sayı, ise başlangıç ısısıdır.

SA’da sömürü ve keşif aşamalarını dengeleyen tek faktör ısıdır. SA’da ısıyı düşürme nedeni algoritmanın kötü çözüm seçme sayısını arttırması böylelikle yerel en iyi çözümlerden kaçınarak sıkışmayı önlemesidir ki bu aşamaya keşif aşaması denir. Aşama ilerledikçe algoritmanın en iyi çözüm etrafında alan bulma umudu yükseleceğinden daha az kötü çözüm seçmek gerekecektir. Bu aşamaya geçişi kolaylaştırmak için ısı düşürülmelidir ki çözümün doğruluğunu arttırmak için minimum sayıda kötü seçim yapılan bu aşamaya sömürü aşaması denir. SA’nın en belirgin aşamaları yerel optimadan kaçabilmesi, amaç fonksiyonunun artan ve azalan değişimlerini onaylaması, mevcut ısıyı temsil eden T parametresi aracılığıyla çözümü değiştiren kötü hareketin onaylama olasılığını kontrol etmesidir.    olduğunda SA ile HC aynılaşmış olacaklardır. Bu açıdan SA için geliştirilmiş HC algoritması denilebilir (Mirjalili, 2020). Aşağıdaki akış şeması SA algoritmasında Metropolis yerel onay mekanizmasını ifade etmektedir (Eker, 2020).

 




BAŞLA



x0 başlangıç çözümünü rasgele oluştur

f x0  amaç fonksiyonunu hesapla


S  f x'  f x 

n n




 EVET S  0 HAYIR 


 0 = 𝑛, ( 0) = ( 𝑛) Metropolis onay mekanizması

için yeni çözümü onayla ile yeni çözümü kabul et.



İterasyon sayısına ulaşıldı mı

EVET

Koşul karşılandı mı HAYIR Sıcaklığı yavaş yavaş düşür

iterasyon sayısını sıfırla

EVET

Küresel en iyi çözümü kaydet

Şekil 1.6. SA algoritmasında Metropolis yerel onay mekanizması.

 



1.3.9. Sinüs kosinüs algoritması


İlk kez 2016 yılında Mirjalili tarafından önerilen Sinüs Kosinüs Algoritması (Sine Cosine Algorithm, SCA), optimizasyon sürecini bir dizi rastgele çözümle bulan sürü esaslı sezgiselüstü optimizasyon tekniğidir (Özaydin ve ark., 2019). Bu çözümler, nesnel bir fonksiyon tarafından iteresiyonlar boyunca yinelemeli olarak hesaplanır. Yeterli sayıda rastgele çözümle küresel optimum noktasını bulma olasılığı artar (Attia ve ark., 2018).

SCA, matematiksel temelli oluşturulan paradigma ile arama uzayında keşif ve sömürü aşamalarını başarıyla sürdürerek en uygun değerleri yakalamaya çalışır. Tüm sürü bazlı algoritmalarda olduğu gibi başlangıçta rastgele aday çözüm kümesi oluşturur ve bu kümeyle en uygun çözüme doğru iteratif olarak yaklaşır. Keşif ve sömürü aşamalarının etkisini arttırmak için algoritmaya bir dizi manipüle edilebilen değişken eklenmiştir (Mirjalili, 2016; Özaydin ve ark., 2019). SCA, optimizasyon problemlerinde keşif ve sömürü aşamaları için kullanılan Sinüs-Kosinüs fonksiyonuna dayanır ve konum güncelleme eşitlikleri aşağıdaki gibi formüle edilebilir (Mirjalili, 2016):

             𝑛(  )  |        | (1.23)

        𝑐𝑜 ( )  |     | (1.24) Yukarıdaki eşitlikte   , i. boyutta t. yinelemedeki mevcut çözümün konumu

        rastgele değerlerdir.   Boyuttaki varış noktasının konumu ve | | mutlak değeri gösterir.

        𝑛(  )  |        | 

 

     {

 

(1.25)

 

       𝑐𝑜 (  )  |        | 


1.23-1.25 eşitliklerinde kullanılan temel değikenler        ‘ tür (Mirjalili, 2016; Demir ve Tanyıldızı, 2017).

  : Bir sonraki hareket yönünü ya da pozisyonu belirler.

  : Hareketin hedefe ne kadar ileride veya hedefin dışında olacağına karar vermek için tasarlanmıştır.

 



  : Rastgele bir ağırlıklandırma parametresidir.   ise hedefin mesafeyi tanımlamadaki etkisini olasılıksal olarak arttırmak   ise arttırmamak biçiminde hedef için rastgele bir ağırlık getirir.

= [0,1] aralığında sinüs ve kosinüs fonksiyonları arasında geçişi sağlayan bir parametredir.

Bu formülasyonda sinüs ve kosinüs kullanılması nedeniyle bu algoritmaya Sinüs

Kosinüs Algoritması (SCA) adı verilir. Sinüs ve cosinüs fonksiyonlarının etkileri şekil

1. 7’de ifade edilmiştir (Mirjalili, 2016). Şekil, ifade edilen eşitliklerin arama uzayında çözümler arasındaki boşluğun tanımlanma biçimini göstermektedir. Bu model iki boyutlu olmakla beraber yukarıdaki eşitlikler sayesinde daha yüksek boyutlara da





 





r 1olduğundagelecekkonumbölgesi

1










r 1olduğundagelecekkonumbölgesi

1





X çözüm


P  varış



Şekil 1.7. Fonksiyonların bir sonraki pozisyona etkileri.


Keşif aşamasının yerine getirilmesi için arama yapma özelliği yukarıda tanımlanan boşlukla sınırlı olmamalıdır. Bu, Şekil 1.8'de gösterildiği gibi sinüs ve cosinüs fonksiyonlarının aralığı [-2,2] şeklinde değiştirerek elde edilebilir (Mirjalili, 2016).

 






Şekil 1.8. Belli aralıkta fonksiyonların durumu.




Aşağıda şekil 1.9’da [-2,2] aralığında fonksiyonların etki boyutlarının kavramsal bir ifadesi gösterilmektedir. Burada, sinüs ve kosinüs fonksiyonlarının























Şekil 1.9. Belli aralıkta fonksiyonların oluşturduğu etkinin kavramsal modeli.


Bir algoritma, arama bölgesinin ümit vaat eden bölgelerini keşfetmek için keşif ve sömürüyü dengeleyebilmeli ve sonunda global optimuma yakınlaşabilmelidir. Keşif ve sömürü aşamaları arasındaki dengeyi sağlayabilmek için ‘Eş.1.23-1.25’ eşitliklerdeki sinüs ve kosinüs aralığı Eş.1.26 baz alınarak ayarlanabilir (Mirjalili, 2016).

 



(1.26)


Burada   mevcut iterasyon,   maksimum yineleme ve   bir sabit bir değerdir.

Şekil 1.10, bu eşitliğin iterasyonlar boyunca fonksiyonlar arasındaki aralığın git gide azaldığını gösterir. Şekil 1.8 ve şekil 1.9’dan anlaşılacağı gibi SCA’yı meydana getiren fonksiyonların, (1, 2] ve [-2, 1) aralığında keşif aşamasını gerçekleştirirken [-1, 1] aralığında ise sömürüyü gerçekleştirdiği görülmektedir (Demir, 2017).



Şekil 1.10. c=3 aralığında fonksiyonların gittikçe azalan modeli.


SCA algoritmasının optimizasyon süreci bir dizi rastgele çözümle başlar. Algoritma daha sonra şimdiye kadar bulunan en iyi çözümleri hafızaya alır ve diğer çözümleri bunu dikkate alarak günceller. Eş zamanlı olarak fonksiyonların aralıkları, yineleme sayacı arttıkça arama alanından yararlanılmasını vurgulamak için güncellenir. Yineleme sayacı varsayılan olarak maksimum yineleme sayısından daha yüksek olduğunda en iyileme süreci sonlandırılır. Şekil 1.11’de Eker (2020) tarafından (El- Shorbagy ve ark., 2019) alınarak uyarlanılmıştır.

 










































Şekil 1.11. SCA akış şeması.


SCA optimizasyon problemlerinin küresel optimumunu belirlemede avantajlı bir konuma sahiptir. SCA, ilgilenilen problem için rastgele ve geliştirilebilir bir çözüm kümesi meydana getirir. Bundan dolayı, tekil esaslı algoritmalarla karşılaştırıldığında yerel en iyi noktalardan kaçınma ve yüksek keşif avantajlatrına sahiptir. Algoritmayı oluşturan fonksiyonlar 1'den fazla ya da -1'den az bir değer döndürdüğünde, keşif

 



bölgesini genişletirler. Fonksiyonların dönüş değeri [-1, 1] aralığında yer aldığında arama sahasının gelecek vaat eden bölgelerinden yararlanılır. SCA, keşif aşamasından sıkıntısız bir biçimde faydalanarak sinüs ve kosinüs fonksiyonlarına adapte olabilir. Küresel optimum noktası, optimizasyon esnasında zayi olmayarak varış noktası olarak bir değişkende gizlenir. Çözümler her zaman şimdiye kadar gelinen en iyi çözüm etrafında konumlarını güncelleme özelliğinden kaynaklı, arama uzayında en iyi bölgeler bulma çabası vardır (Demir, 2017).


1.4. Hibrit Algoritmalar


Sezgiselüstü algoritmalarda sömürü aşamasının zayıflığı genel olarak erken yakınsamayı beraberinde getirirken keşif aşamasının zayıflığı ise yavaş yakınsamaya neden olur. Hibrit algoritmalar herhangi bir sezgiselüstü algoritmanın keşif ile sömürü aşamaları arasında denge kurulamadığında diğer bir deyişle söümürü ya da keşif aşamalarından biri zayıf kaldığında uygun bir algoritmanın entegre edilerek iki farklı algoritmadan tüm aşamaları güçlü yeni bir algoritma üretmektir (Ting ve ark., 2015). Evrimsel Algoritma ile elde edilen çözümlerin kalitesini iyileştirmek hibritleşme için ikinci bir nedendir (Grosan ve Abraham, 2007).

SCA'da, bir algoritmanın bir sonraki konuma doğru hareket etme şekli rastgele ve uyarlanabilir değişkenlere dayanır; bu nedenle tatmin edici çözüme ulaşmak her zaman mümkün olmayabilir. SCA'da hafızanın olmaması, daha önce elde edilen mevcut çözümleri takip etmesini kısıtlar. Optimizasyon süreci boyunca, SCA, bulduğu küresel en uygun çözümü aşan tüm uygunluk değerlerini reddeder ve küresel optimuma taşınabilecek tüm olası çözüm kümelerini asla korumaz. Birleşme potansiyeline sahip olabilecek olası çözüm kümelerini asla korumaz. Bundan dolayı SCA'nın sömürü yeteneği zayıflar, çok yavaş yakınsama eğilimi gösterir veya bazen yerel minimumda durabilir (Nenavath ve Das, 2018). NM simpleks yöntemi yerel aramada başarılı olmakla beraber başlangıç noktalarına oldukça duyarlıdır. İlk simpleks bazı uygun olmayan yerlerde bulunuyorsa nihai olarak elde edilen çözümün kalitesi ciddi şekilde etkilenecektir (Xu ve Liu, 2018). Bu açıdan yerel aramada(sömürü) zayıf olan algoritmalarla birlikte hibritleştirilerek çalıştırılır.

 



1.4.1. SCA-SA hibrit algoritması


SCA, düşük optimizasyon hassasiyeti ve erken yakınsama problemi dezavantajına sahiptir (Suid ve ark., 2018). SCA algoritmasının keşif ve sömürü yeteneğini daha iyiyi dengelemek için SCA-SA algoritması önerilmiştir. SCA’ nın bulduğu en uygun küresel çözüm SA’ nın başlangıç çözümü olarak kabul edilir. SA’da bulunan tepe tırmanma özelliği baz alınarak daha iyi çözüme ulaşılması hedeflenmiştir. Ancak NFL teoreminde açıklandığı gibi SA başlangıç ısısana bağlı hareket ettiği içn bazı fonksiyonlarda daha etkin çözüme ulaşmak mümkün olamamaktadır (Busetti, 2003).


 




































Şekil 1.12. SCA-SA hibrit algoritması.


1.4.2. SCA-NM hibrit algoritması


NM simleks arama yöntemi oluşturulan simpleksin boyutunu opreatörler (yansıtma, genişleme, daralma, büzülme) kullanarak dinamik olarak ayarlayıp küresel optimum değerini iyileştirebilir (Feng ve ark., 2020). Bu yeni metodoloji keşif ve sömürü yeteneklerini tatmin edici bir şekilde gerçekleştirmek için kullanılabilir. Aşağıdaki şekilde SCA algoritmasının zayıf yönleriyle NM algoritmasının güçlü yönlerini birlikte değerlendirmek aynı zamanda birbirlerinin avantajlarını geliştirmek ve daha iyi çözümler bulma olasılığını artırabilmek için kullanışlı bir metod sunulmuştur.

 



SCA-NM algoritması en iyi çözümlerin bulunduğu alanları keşfetmek için SCA algoritmasıın parametlerini kulanırken bu alanlarda yoğun aramalar yapmak için NM simplex yönteminin paramaetrelaerini kullanır. İlk simplex için SCA-NM algoritmasının her iteresyonunda, mevcut sürüdeki tüm aday çözümler ilk defa SCA algoritmasının parametreleri kullanılarak güncellenir; daha sonra n karar paremetrelerin sayısı olmak üzere en iyi n+1 çözümler seçilecek ve kullanılacaktır. İkici aşamada m iteresyonları için NM simplex yöntemi kullanılarak güncellenecektir. Son olarak güncellenmiş simpleksin köşeleri ve mevcut sürüdeki kalan çözümler, bir sonraki itersyona yeni bir sürü oluşturmak için kullanılır. Yukarıdaki süreçte m önemli bir parametredir. Değeri çok küçükse NM yönteminin yerel arama yeteneği yeterince kullanılmayacaktır. Aksine, değeri çok büyükse NM yöntemi fazla vurgulanacaktır. Değeri n + 1'e eşit olacak şekilde ayarlanırsa en uygun çözümü bulduğu literatürde ispatlanmıştır (Singer ve Nelder, 2009; Gao ve Han, 2012; Xu ve Liu, 2018).

 




 

Şekil 1.13. SCA-NM algoritmasının kobinasyon şeması.

 


















































Şekil 1.14. SCA-NM akış seması.

 






















 

 

2. KAYNAK BİLDİRİŞLERİ




2.1. Sezgiselüstü Algoritmaların Tarihçesi


Tarih boyunca birçok problem çözme süreci sezgisel olma eğilimindedir ancak sezgisel yöntemler optimizasyonu için bilimsel yöntem için modern bir olgudur. 1940'lardan 1960'lara kadar sezgisel yöntemler çeşitli uygulamalarda kullanıldı ancak ilk dönüm noktası, Evrimsel Algoritmaların ortaya çıkmasıyla meydana geldi. 1963'te Ingo Rechenberg ve Hans-Paul Schwefel, daha sonra ikisi de Berlin Teknik Üniversitesinde, Genetik Algoritmalar geliştirdi. Evrimsel stratejiler ise L. j. Fogel 1966'ta Evrimsel Programlama geliştirdi (Beheshti ve Shamsuddin, 2013). Genetik algoritmalar 1970'lerde J. Holland tarafından geliştirildi ancak çığır açan kitabı Algoritmalar 1975'te yayınlandı (Holland, 1975). 1980'ler ve 1990'lar sezgiselüstü algoritmalar için en heyecan verici dönemdi. Büyük bir adım, 1983'te S. Kirkpatrick ve diğerleri tarafından öncülük edilen ve metallerin tavlama işleminden esinlenen bir optimizasyon tekniği olan Benzetilmiş Tavlamanın (SA) geliştirilmesiydi. Bir diğer önemli adım, Farmer ve arkadaşları tarafından Yapay Bağışıklık sistemlerinin 1986'da geliştirilmesiydi.

Sezgiselüstü algoritmalarda hafızanın kullanımına 1980'lerde Tabu Aramasında (Tabu Search algorithm, TS) Glover öncülük etti, ancak TS üzerine yazdığı ufuk açıcı kitabı daha sonra 1997'de yayımlandı (Glover ve Laguna, 1997). Arama değiştirenler bir Tabu listesine kaydedilir ve gelecekteki hamleler, önceki çözümleri tekrar ziyaret etmekten kaçınmaya çalışmalıdır.

Marco Dorigo, optimizasyon ve doğal algoritmalar üzerine doktora tezini 1992 yılında bitirdi ve burada Karınca Kolonisi Optimizasyonu (ACO) üzerine yaptığı yenilikçi çalışmaları anlattı (Dorigo, 1992). Bu arama tekniği, feromon kimyasal haberci olarak kullanan sosyal karıncaların sürü zekasından esinlenmiştir. Daha sonra 1992'de Standford Üniversitesinden John R. Koza, genetik programlama üzerine yepyeni bir yapının temelini atan bir kitap yayımladı (Koza, 1992).

Bilgisayar programlamasında devrim yaratan makine öğretimi alanı, sezgiselüstü algoritmaların geliştirilmesiyle hızlı bir ivme yakaladı (Abdel-Basset ve ark., 2018).

 



1995'te, James Kennedy ve Rusell C. Eberhart tarafından Parçacık Sürü Optimizasyonunun geliştirilmesinde bir başka önemli ilerleme oldu. 1996'da ve daha sonra 1997'de R. Storn ve K. Price, Diferansiyel Evrim (DE) adı verilen vektör tabanlı evrimsel algoritmalarını geliştirdiler. Bu algoritmanın birçok uygulamada genetik algoritmalardan daha verimli olduğu kanıtlandı.

21. yüzyılın başında işler daha da heyecanlı hale geldi. İlk olarak Zong Woo Geem ve ark. 2001 yılında müzikten esinlenen bir algoritma olan Uyum Arama (HS) algoritmasını geliştirdi. 2002 yılında Passino tarafından bir bakteri toplama algoritması geliştirildi. 2004 yılında S. Nakrani ve C. Tovey, Bal Arısı algoritmasını ve internet barındırma merkezlerini optimize etmek için uygulamasını önerdi. Bunu D. T. Pham ve diğerleri tarafından yeni bir Arı algoritmasının geliştirilmesini izledi. 2005 yılında ve Yapay Arı Kolonisi (ABC), D. Karaboga tarafından geliştirildi. 2008 yılında Xin-She Yang Ateş Böceği algoritmasını (FA) geliştirdi. 2009 yılında Xin-She Yang ve Suash Deb, verimli bir Guguk Arama (CS) algoritması geliştirdi (Yang ve Deb, 2009; Yang ve Deb, 2010) ve CS'nin mevcut sezgiselüstü algoritmaların çoğundan çok daha etkili olduğu göstermiştir (Sorensen ve ark., 2017).

 

3. MATERYAL VE YÖNTEM




3.1. Benchmark (Test) Foksiyonları


Sezgiselüstü algoritmaların performanslarını ölçmek için test amaçlı Benchmark fonksiyonlarından yaralanılır. Bu fonksiyonlar karşılaştırma fonksiyonları ya da kriter fonksiyonları olarak da isimlendirilir (Zhang ve ark., 2016). Karşılaştırma testi fonksiyonları temelde matematiksel, sayısal fonksiyonlar şeklinde sunulan optimizasyon problemleridir. Bu fonksiyonlar, problem boyutlarının D olduğu durumda, en iyi çözüme ulaşmaya yardımcı olan en uygun parametre değerleriyle optimize edilir. En iyi çözüm, farklı sayıda ve türdeki tepe ve vadilerin bulunduğu arama bölgesinin tamamına yayılan büyük miktardaki optimal olmayan çözümlerde gizlidir. Sezgiselüstü algoritmalar dahil olmak üzere herhangi bir optimizasyon algoritması, en iyi çözümü en kısa sürede üretme eğilimindedir. Herhangi bir sezgiselüstü algoritmanın etkinliği, küresel ve yerel aşamalardaki yakınsama yeteneği ile ölçülür. Güçlü yakınsama yeteneğine sahip sezgiselüstü algoritmalar komşuluklardaki en iyi çözümü yakalarlar (Hussain ve ark., 2017). Problemin boyutu oranında çözüm zorluğu artar. Parametre veya boyut sayısı arttıkça, arama bölgesinin hacmi büyür. Doğrusal olmayan problemlerde, çok boyutluluk optimizasyon algoritmaları için bir zorluğu ifade eder (Yang, 2010; Eker, 2020).

Benchmark amaç fonksiyonları sürekli, kesintili, doğrusal, doğrusal olmayan, dışbükey, içbükey, tek modlu, çok modlu, ayrıştırılabilir ve ayrıştırılmaz olarak tanımlanabilir (Jamil ve Yang, 2013). Modallık, arama ortamındaki tepe noktalarının sayısı olarak tanımlanır. Bu tepe noktaları, yerel minimum ve küresel minimum konumlardan oluşur (Hussain ve ark., 2017). Algoritmaların keşif esnasında bu tepe noktalarla karşılaşması durumunda bu noktalara takılma olasılığı mevcuttur. Bu durum, keşif aşamasının başarılı olma sürecine olumsuz katkıda bulunarak aramayı gerçek optimal çözümlerden uzağa yönlendirebilir. Ayrılabilirlik, bir fonksiyonun değişkenlerini optimize etme yaklaşımını tanımlar. Hem tek modlu hem de çok modlu fonksiyonlar ayrılabilir ve ayrılamaz olabilir (Jamil ve Yang, 2013). Eğer fonksiyon ayrılabilirse  her  değişken  (  )  bağımsız  olarak  optimize  edilebilir.  Ayrılabilir

 





























Tek modlu fonksiyonlar, en iyi çözümün bulunduğu bir tane vadi ve küresel

minimum noktaya sahiptir (Hussain ve ark., 2017). Bu fonksiyonlardaki yerel optimum


değeri, aynı zamanda küresel optimumu ifade eder. Tek modlu fonksiyonlar konveks

(dış bükey) yapıdadır. Amaç (objective) fonksiyonunun hedefi; daima küresel optimum


değere ulaşmaktır (Doğan, 2019). Bu tür fonksiyonların çözülmesi kolay kabul edilir ancak bu fonksiyonları kaydırmak ve döndürmek zorluğu artırır. Sezgiselüstü algoritmalar, yerel optimuma ulaşmak için bu fonksiyonlar üzerinde test edilebilir

(Hussain ve ark., 2017).


3.1.2. Çok modlu test fonksiyonları



 



Karşılaştıma fonksiyonlarının detayları Çizelge 3.1'de gösterilmiştir (Yao ve diğerleri, 1999; Digalakis ve Margaritis, 2001; Molga ve Smutnicki, 2005). Genel olarak Çizelge 3.1'de, tek modlu ve çok modlu fonksiyonların temel özellikleri ifade edilmiştir. Maxsimum tek tepeli bir fonksiyon, F1 – F7 fonksiyonlarında olduğu gibi tek modlu olarak adlandırılır.


Çizelge 3.1. Fonksiyon tanımları (Yao ve diğerleri, 1999; Digalakis ve Margaritis, 2001; Molga ve Smutnicki, 2005)


Kıyaslama Fonksiyonu Boyut Arama Aralığı En Uygun Değer

 

  ( )  ∑ 

 

   

30 [-100,100]

0

   

  ( )  ∑|  |  ∏ |  |

       

30

[-10,10]

0

   

  ( )  ∑(∑  )

         

30 [- 100,100]

0

  ( )      |  |     𝑛 30 [- 100,100] 0

   

  ( )  ∑ [   (    )  (   ) ]

     

   

30

[-30,30]

0

 

  ( )  ∑(     ) 

   

30 [- 100,100]

0

 

  ( )  ∑     𝑛 [  ]

 

   

30 [- 128,128]

0

 

 

  ( )  ∑    (√|  |

   

30

[- 500,500]

-418.929*D

 

  ( )  ∑[     𝑐𝑜 (      )]

 

   

30 [- 5.12,5.12]

0

 

 

   ( )      (   √ ∑  )

𝑛  

   

 

 

    ( ∑  (    )) 

𝑛

   




30




[-32,32]




0


   

    

   ( ) ∑    ∏ 𝑐𝑜 (  ) 

√ 

       

30

[- 600,600]

0

 




Çizelge 3.2. (Devamı).Fonksiyon tanımları (Yao ve diğerleri, 1999; Digalakis ve Margaritis, 2001; Molga ve Smutnicki, 2005)


 

   ( )       (   )

𝑛

   

  𝑛 ∑(    ) [    𝑛 (    )]

   

 

  (    )   ∑( (       )

   





30





[-50,50]





0

   ( )     𝑛 (   )  ∑  (    ) [ 

   

  𝑛 (     )]

30

[-50,50]

0


3.2. İstatistiksel Test Metodları


3.2.1. Wilcoxon eşleştirilmiş örnek testi


İstatistikte, testler ve modeller parametrik standartlara uymadığında yani verilerin bilinen bir dağılımı sağladığı varsayılamadığında, parametrik olmayan testler kullanılır. Wilcoxon eşleştirilmiş örnek testi, iki bağımsız örneğin aynı dağılıma sahip poülasyondan gelip gelmediğini belirlemek için kullanılabilen parametrik olmayan bir testtir (Barros ve ark., 2018). Bu istatistiksel test, örnekler bağımsız olduğunda uygulanabilir ve ölçümler sıralı ölçekte sıralanabildiğinde yani değerler sürekli bir değişkene yöneldiğinde ancak normal bir dağılıma sahip olmadığında yararlıdır (Larson ve Farber, 2019). Bu teknik, ilişkili iki veri seti arasındaki farkın anlamlılığını test etmek amacıyla kullanılır. Wilcoxon eşleştirilmiş örnek testi, ilişkili iki veri setine ait fark değerlerinin yönünün yanısıra miktarını da baz alır (Büyüköztürk, 2017).


3.2.2. İstatistiksel analizlerin grafikle gösterimi


Bir kutu grafiği, kartilleri ve medyanları (ortanca) görselleştirerek değişkenlerin dağılımını göstermede kullanılır. Grafiği kullanmanın amacı, çarpıklık, basıklık, merkezi eğilim ölçüleri ve veri dağılımının nasıl olduğuna dair araştırmacıya bilgi sunmaktır. Tipik bir kutu grafiğinde, dikdörtgenin üstü üçüncü çeyreği, dikdörtgenin ortasına yakın yatay bir çizgi medyanı ve dikdörtgenin altı da ilk çeyreği belirtir. Maksimum değeri belirtmek için dikdörtgenin üstünden dikey bir çizgi uzanır ve

 



minimum değeri belirtmek için dikdörtgenin altından başka bir dikey çizgi uzanır (McGill Tukey ve Larsen, 1978).















 






















 

 

4. BULGULAR VE TARTIŞMA




Bu çalışmada yerel arama algoritmalarından SA ve NM algoritmalarının SCA algoritmasının zayıf yönlerini güçlendirmek amacıyla 13 adet unimodal ve multimodal test fonksiyonları kullanılarak optime edilmesi sağlanılmıştır. Çıkan sonuçlar istatistiki metrikler, kutu grafiği, fonksiyonların yakınsama eğrileri, en iyi sonuçların karşılaştrılması ve wilcoxon testi ile istatistiki temelde değerlendirilmiştir. Algoritmaların optimizasyon sürecinde her bir algoritma için 30 farklı sürüş yapılmıştır. Her sürüşte adaleti sağlamak için algoritmaların sürü boyotu 50 ve 500 iterasyon uygulanmıştır. Analizlerde MATLAB R2019a proğramı kullanılmıştır. Şekil 4.1’de algoritmalar için optimizasyon sürecini ifade etmektedir.



OPTİMİZASYON SÜRECİ

TEST FONKSİYONLARI

UNİMODAL MULTİMODAL






SEZGİSEL ÜSTÜ ALGORİTMALAR SCA SCA-SA SCA-NM


İSTATİSTİKSEL SONUÇLARIN KARŞILAŞTIRILMASI



METRİKLER KUTU GRAFİĞİ YAKINSAMA EN İYİ WİLCOXON

EĞRİLERİ SONUÇLAR TESTİ

Şekil 4.1. Optimizasyon süreci.

 



Çizelge 4.1. SCA-NM algoritmasının SCA ve SCA-SA ile istatistiki sonuç karşılaştırılması


ALGORİTMALAR

FONKSİYONLAR METRİKLER SCA SCA-NM SCA-SA

Ortalama 4.27E-15 4.275E-30 4.38E-16

std.sapma 1.00E-10 1.472E-29 2.32E-13

F1 en iyi değer 2.06E-18 5.856E-34 8.86E-19

en kötü değer 5.52E-14 6.454E-34 1.27E-12

ortalama süre 9.70E-02 9.20E-02 1.67E-01

Ortalama 8.75E-11 4.60E-13 7.16E-10

std.sapma 1.62E-10 1.76E-12 2.86E-09

F2 en iyi değer 7.57E-13 4.92E-43 1.51E-12

en kötü değer 8.07E-10 7.73E-12 1.58E-08

ortalama süre 1.02E-01 9.63E-02 1.70E-01

Ortalama 3.09E-05 4.84E-68 7.24E-06

std.sapma 1.21E-04 1.43E-06 1.19E-05

F3

en iyi değer 1.82E-11 1.39E-67 1.10E-11

en kötü değer 6.66E-04 1.39E-67 4.24E-05

ortalama süre 1.96E-01 1.88E-01 2.65E-01

Ortalama 7.41E-05 1.15E-06 3.01E-05

std.sapma 1.00E+00 5.72E-06 5.71E-05

F4 en iyi değer 1.92E-07 6.20E-39 6.15E-08

en kötü değer 0.0011 3.12E-05 2.72E-04

ortalama süre 9.80E-02 9.20E-02 1.75E-01

Ortalama 7.29E+00 0.00E+00 7.14E+00

std.sapma 4.29E-01 0.00E+00 4.97E-01

F5 en iyi değer 6.45E+00 0.00E+00 6.20E+00

en kötü değer 8.09E+00 0.00E+00 8.17E+00

ortalama süre 1.36E-01 1.30E-01 2.30E-01

Ortalama 3.62E-01 6.16E-32 -5.00E-01

std.sapma 1.31E-01 1.77E-31 1.33E-04

F6 en iyi değer 9.79E-02 0.00E-02 -5.00E-01

en kötü değer 5.99E-01 7.89E-31 -4.99E-01

ortalama süre 1.01E-01 9.40E-02 2.02E-01

Ortalama 2.00E-03 4.10E-03 5.45E-02

std.sapma 1.90E-03 3.70E-03 2.58E-01

F7 en iyi değer 6.44E-05 2.67E-04 -4.55E-01

en kötü değer 8.70E-03 1.85E-02 5.41E-01

ortalama süre 1.55E-01 1.47E-01 2.78E-01

Ortalama -2.22E+03 -2.34E+03 -2.30E+03

std.sapma 1.56E+02 2.17E+02 1.98E+02

F8 en iyi değer -2.64E+03 -3.02E+03 -2.38E+03

en kötü değer -1.94E+04 -1.80E+03 -1.80E+03

ortalama süre 1.27E-01 1.34E-01 2.63E-01

Ortalama

1.79E+01

2.23E-09

-4.21E-08

std.sapma 5.12E+01 1.08E-08 3.85E-07

en iyi değer 0.00E+00 0.00E+00 -1.26E-06

F9 en kötü değer 2.28E+02 5.89E-08 9.50E-07

ortalama süre 1.11E-01 9.80E-02 1.82E-01

 



Çizelge 4.1 (Devamı). SCA-NM algoritmasının SCA ve SCA-SA ile istatistiki sonuç karşılaştırılması


ALGORİTMALR

FONKSİYONLAR METRİKLER SCA SCA-NM SCA-SA

Ortalama 2.22E-08 3.53E-07 3.13E-06

std.sapma 4.55E-08 1.72E-06 1.71E-05

F10 en iyi değer 1.48E-10 8.62E-12 6.45E-11

en kötü değer 2.25E-07 9.47E-06 9.37E-05

ortalama süre 1.07E-01 1.02E-01 1.94E-01

Ortalama 3.86E-02 4.06E-12 -2.02E-01

std.sapma 8.89E-02 2.14E-11 1.15E+00

F11

en iyi değer 0.00E+00 0.00E+00 -6.28E+00

en kötü değer 3.54E-01 1.17E-10 1.69E-01

ortalama süre 1.38E-01 1.28E-01 2.09E-01

Ortalama 7.42E-02 4.72E-31 -1.01E+00

std.sapma 2.93E-02 2.95E-33 8.93E-02

F12 en iyi değer 1.98E-02 4.71E-31 -1.34E+00

en kötü değer 1.41E-01 4.81E-31 -8.29E-01

ortalama süre 3.14E-01 3.05E-01 4.19E-01

Ortalama 3.01E-01 7.34E-02 1.00E+00

std.sapma 8.97E-02 1.40E-02 7.60E-03

F13 en iyi değer 7.47E-02 1.94E-02 9.91E-01

en kötü değer 4.58E-01 9.92E-02 1.04E+00

ortalama süre 3.18E-01 3.03E-01 4.34E-01

 




 

Şekil 4.2. Unimodal fonksiyonlar.

 




 

Şekil 4.3. Multimodal fonksiyonlar.


Çizelge 4.1’de algoritmaların sonuçları istatistiki ölçütler olarak en iyi değer, en kötü değer, ortalama ve standart sapma olarak belirlenmiştir. Ayrıca en uygun sürede sonuç alma amacıyla algoritmanın çalıştığı ortalma süre dikkate alınmıştır. Sonuçta F7’de SCA tüm istatistiki değerlerde daha iyi performans göstermiştir. Aynı zamanda F10’da ortalama, standart sapma ve en kötü değerin gösterildiği istatistiki sonuçlarda SCA daha iyi bir performans göstermiştir. Diğer tüm fonksiyonlarda önerilen SCA-NM algoritması çok güçlü bir şekilde en iyi sonuçlara ulaşmıştır. SCA-NM istatistiki olarak

 



en iyi sonuçları gösterdiği gibi F8 hariç tüm fonksiyonları en kısa sürede optimize etmiştir. Şekil 4.2 ve Şekil 4.3’te de bulduğumuz sonuçların üç boyutlu grafikleri gösterilmiştir.


c


Şekil 4.5. F2 test fonksiyonu ile algoritmaların performans karşılaştırmaları.

 




 

Şekil 4.7. F4 test fonksiyonu ile algoritmaların performans karşılaştırmaları.

 




 

Şekil 4.9. F6 test fonksiyonu ile algoritmaların performans karşılaştırmaları.

 




 

Şekil 4.11. F8 test fonksiyonu ile algoritmaların performans karşılaştırmaları.

 




 

Şekil 4.13. F10 test fonksiyonu ile algoritmaların performans karşılaştırmaları.

 




 

Şekil 4.15. F12 test fonksiyonu ile algoritmaların performans karşılaştırmaları.

 




 

performans gösterdiği gözlemlenmiştir. Önerilen SCA-NM algoritması farklı optimizasyon problemlerine başarılı bir şekilde uygulanması bu algoritmanın gücünü ortaya koymuştur.


Çizelge 4.2. Non-Paremetrik wilcoxon işaret test sonuç çizelgesi


SCA-NM VE SCA SCA-NM VE SCA-SA

function p-value T+ T- winner p-value T+ T- winner

F1 1.730E-06 465 0 + 1.730E-

06 465 0 +

F2 1.730E-06 465 0 + 1.730E-

06 465 0 +

F3 1.730E-06 465 0 + 1.730E-

06 465 0 +

F4 9.32E-06 448 17 - 2.840E-

05 436 29 +

F5 1.730E-06 465 0 + 1.730E-

06 465 0 +

F6 1.730E-06 465 0 + 1.730E-

06 0 465 +

F7 0,0044 94 371 + 0,3389 328 186 -

 



Çizelge 4.2 (Devamı). Non-Paremetrik wilcoxon işaret test sonuç çizelgesi


SCA-NM VE SCA SCA-NM VE SCA-SA

function p-value T+ T- winner p-value T+ T- winner

F8 0,0098 358 107 + 0,0316 128 337 +

F9 1.430E-04 429 36 + 0.6143 364 101 -

F10 0,2712 179 286 - 0.2989 182 283 -

F11 2.560E-06 465 0 + 5.790E-

05 428 37 +

F12 1.730E-06 465 0 + 1.730E-

06 0 465 +

F13 1.730E-06 465 0 + 1.730E-

06 465 0 +


Çizelge 4.2 sonuçlarına bakıldığında SCA-NM algoritmasının SCA ile karşılaştırıldığında toplam on bir fonksiyonda üstünlük kazandığı iki fonksiyonda ise yenildiği gözlemlenmiştir. SCA-SA algoritması ile karşılaştırıldığında ise on fonksiyonda üstünlük kazandığı dört fonksiyonda yenildiği gözlemlenmiştir.

 






















 

 




Bu tez çalışmasında SCA’nın çeşitli çözümler üreterek daha iyi optime olamama zaafından kurtulması böylece keşif-sömürü dengesini sağlaması için yerel arama algoritmalarından SA ve Nelder Mead simplex metodu ile iki farklı hibritleştirme gerçekleşmiştir. Önerilen SCA-NM ve SCA-SA hibrit algoritmaları yerel aramaya takılma problemini aşarak problemin optimizasyon sürecini iyileştirmeye katkı sunmuşlardır. Önerilen SCA-NM ve SCA-SA algoritmalarının performanslarını gözlemlemek için yedi adet unimodal ve altı adet multimodal olmak üzere on üç adet en çok kullanılan test fonksiyonlarından faydalanıldı. Bu test fonksiyonları önerilen algoritmaların performanslarının etkin bir biçimde artmasına katkı sundu. SCA-NM ve SCA-SA ile orijinal SCA performans karşılaştırmaları çeşitli istatistiki tekniklerle yapıldı. Bu test fonsiyonları algoritmaların en iyi değer, ortalama değer, standart sapma, en kötü değer gibi adil ve doğru karar vermeye destek olan istatistiki sonuçlar karşılaştırılarak yapıldı. Bu karşılaştırmalar SCA-NM algoritmasının SCA ve SCA- SA’ya göre daha güçlü bir performansa sahip olduğunu ortaya koymuştur. Her bir algoritmanın çalıştırılma sayısı ele alınarak çıkan sonuçların grafiksel olarak değerlendirilmesi ile önerilen SCA-NM’nin kararlı bir şekilde iyi sonuçlara sahip olduğu gözlemlenebilmiştir. Yakınsama eğrileriyle karşılaştırmalı olarak görsel ifade sağlanmış ve SCA-NM’nin büyük oranda daha dengeli yakınsadığı gözlemlenmiştir. Kutu grafikleri optimize edilen ortalama değer ile diğer ortalamaların birbirine yakınlığını ifade ederek SCA-NM’nin diğer algoritmalardan üstünlüğünü ortaya koymuştur. Bu istatistiksel değerlerin yanı sıra önerilen hibrit SCA-NM’nin üstünlüğünün tesadüfen olmadığını kanıtlamak için wilcoxon işaret testi kullanılarak güvenilir ve kararlı bir kazanma oranına ulaşılmıştır. SCA-NM algoritmasının çalışma süresi de değerlendirildiğinde çalışma süresini arttırarak süreci hantallaştırmadığı aksine on bir fonksiyonda süreyi kısalttığı gözlemlenmiştir. Gelecek çalışmalar için yerel arama algoritmalarının küresel arama algoritmalarıyla hibritleştirilerek problemlerin optimizasyonuna ciddi katkı sunacağı varsayılmaktadır.

 

58



















 



Aarts, E., Korst, J., Michiels, W., 2005. Simulated annealing. In Search methodologies

Springer, Boston, MA. 187-210.

Abdel-Basset, M., Abdel-Fatah, L., Sangaiah, A. K., 2018. Metaheuristic algorithms: A comprehensive review, Chap 10. Computational intelligence for multimedia big data on the cloud with engineering applications, Intelligent Data-Centric Systems 185-231.

Ahandani, M.A., 2016. Opposition-based learning in the shuffled bidirectional differential evolution algorithm, Swarm Evol. Comput., 26, 64–85.

Akay, B., 2009. Numerik Optimizasyon Problemlednde Yapay An Kolonisi (Artificial Bee Colony) Algoritmasinin Performans Analizi (doktora tezi). EÜ, Fen Bilimleri Enstitüsü, Kayseri.

Alba, E, Dorronsoro, B., 2005. The exploration/exploitation tradeoffin dynamic cellu- lar genetic algorithms. IEEE Trans Evol Comput, 9, 126–42.

Ali, M. M., Khompatraporn, C., Zabinsky, Z. B., 2005. A numerical evaluation of several stochastic algorithms on selected continuous global optimization test problems. Journal of global optimization, 31 (4): 635-672.

Alizade, B., 2019. Sürü Tabanlı Karınca Aslanı ve Balina Optimizasyonu Algoritmalarının Fizik Tabanlı Algoritmalarla Hibritleştirilmesi (yüksek lisans tezi), EÜ, Fen Bilimleri Enstitüsü, Kayseri.

Askarzadeh, A., Dos Santos Coelho, L., Klein, C. E., Mariani, V. C., 2016. A population-based simulated annealing algorithm for global optimization. IEEE İnternational Conference on Systems, Man, and Cybernetics (SMC), 004626- 004633.

Attia, A. F., El Sehiemy, R. A., Hasanien, H. M., 2018. Yeni bir Sinüs-Kosinüs algoritması kullanan güç sistemlerinde optimum güç akışı çözümü. Uluslararası Elektrik Güç ve Enerji Sistemleri Dergisi, 99, 331-343.

Barros, R. S. M., Hidalgo, J. I. G., de Lima Cabral, D. R., 2018. Wilcoxon sıra toplamı testi sapma detektörü. Nöro hesaplama, 275, 1954-1963.

Bayraktar, Z., Komurcu, M., Bossard, J. A., Werner, D. H., 2013. The wind driven optimization technique and its application in electromagnetics. IEEE transactions on antennas and propagation, 61 (5): 2745-2757.

Bayraktar, Z., Komurcu, M., Werner, D. H., 2010. Wind Driven Optimization (WDO): A novel nature-inspired optimization algorithm and its application to electromagnetics. IEEE Antennas and Propagation Society International Symposium, 1-4.

Beheshti, Z., Shamsuddin, S. M. H., 2013. A review of population-based meta-heuristic algorithms. Int. J. Adv. Soft Comput. Appl, 5 (1): 1-35.

Bhatia, R. A., 2013. A Comparative Study of Heuristic Optimization Algorithms

(master thesis), Department of Electrical and Computer Engineering.

 



Biswas, S., Kundu, S., Das, S., 2014. An improved parent-centric mutation with normalized neighborhoods for inducing niching behavior in differential evolution, Cybern., IEEE Trans., 44 (10): 1726–1737.

Blum, C., Roli, A., 2003, Metaheuristics in combinatorial optimization: Overview and conceptual comparison, ACM Computing Surveys-CSUR, 35 (3): 268-308.

Bohlin, M., Lu, Y., Kraft, J., Kreuger, P., Nolte, T., 2009. Best-effort simulation-based timing analysis using hill-climbing with random restarts. In Proceedings of the 15th IEEE International Conference on Embedded and Real-Time Computing Systems and Applications, IEEE Computer Society.

Burke, E. K., Bykov, Y., 2017. The late acceptance hill-climbing heuristic. European Journal of Operational Research, 258 (1): 70-78.

Busetti, F., 2003. Simulated annealing overview. World Wide Web URL www. geocities.com/francorbusetti/saweb.pdf, 4.

Büyüköztürk, Ş., Çakmak, E. K., Akgün, Ö. E., Karadeniz, Ş., and Demirel, F., 2017.

Bilimsel araştırma yöntemleri. Pegem Atıf İndeksi, 1-360.

Cai, W., Yang, L., Yu, Y., 2020. Partikül sürüsü optimizasyon algoritmasına dayalı ackley fonksiyonunun çözümü. Gelen Elektrik Mühendisliği ve Bilgisayar Uygulamaları Gelişmeler 2020 IEEE Uluslararası Konferansı (AEECA), 563- 566, IEEE.

Chawla, M., Duhan, M., 2018. Levy flights in metaheuristics optimization algorithms–a review. Applied Artificial Intelligence, 32 (9): 802-821.

Chen, H., Jiao, S., Heidari, A. A., Wang, M., Chen, X., and Zhao, X., 2019. An opposition-based sine cosine approach with local search for parameter estimation of photovoltaic models. Energy Conversion and Management, 195, 927-942.

Chung, C.J., Reynolds, R.G., 1998. ‘CAEP: an evolution-based tool for realvalued function optimization using cultural algorithms’, International Journal on Artificial Intelligence Tool, 7, (3): 239–291.

Colmenar, J. M., Hoff, A., Martí, R., Duarte, A., 2018. Scatter search for the bi-criteria p- median p-dispersion problem. Progress in Artificial Intelligence, 7 (1): 31- 40.

Colorni, A., Dorigo, M., Maniezzo, V., 1992.. An Investigation of some Properties of an" Ant Algorithm". In Ppsn, 92.

Çelik, Y., 2013. Optimizasyon Problemlerinde Bal Arılarının Evlilik Optimizasyonu Algoritmasının Performansının Geliştirilmesi (doktora tezi). SÜ, Fen Bilimleri Enstitüsü, Konya.

Das, S., Suganthan, P.N., 2011. Differential evolution: a survey of the state-of-the-art,

Evol,. Comput., IEEE Trans., 15 (1): 4–31.

Dawid, H., 1999. Adaptive Learning by Genetic Algorithms - Analytical Results and Applications to Economic Models, Springer, New York.

Demir, G., Tanyıldızı, E., 2017. Optimizasyon Problemlerinin Çözümünde Sinüs Kosinüs Algoritması (SKA)’nın Kullanılması. Fırat Üniversitesi Mühendislik

 



Bilimleri Dergisi, 29 (1): 225-236.

Demir, G., 2017, Optimizasyon Problemlerinin Çözümünde Sinüs Kosinüs Algoritması (SCA) Yönteminin Kullanılması (yüksek lisans tezi). EÜ, Yazılım Mühendisliği Anabilim Dalı, Elazığ.

Dennis Jr, J. E., Woods, D. J., 1985. Optimization on microcomputers. The nelder- mead simplex algorithm.

Dieterich, J. M., Hartke, B., 2012. Empirical review of standard benchmark functions using evolutionary global optimization. Applied Mathematics, 3, 1552-1564.

Digalakis, J. G., Margaritis, K. G., 2001. On benchmarking functions for genetic algorithms. International Journal of Computer Mathematics, 77 (4): 481-506.

Doğan, C., 2019 Balina Optimizasyon Algoritması ve Gri Kurt Optimizasyonu Algoritmaları Kullanılarak Yeni Hibrit Optimizasyon Algoritmalarının Geliştirlmesi Hibritleştirilmesi (yüksek lisans tezi), EÜ, Fen Bilimleri Enstitüsü, Kayseri.

Dorigo, M., 1992. Optimization, learning and natural algorithms (Ph.D. thesis). Italy: Politecnico di Milano.

Eberhart, R.C., Kennedy, J., 1995. A new optimizer using particle swarm theory. In: Proceedings of the sixth International Symposium on Micro Machine and Human Science, New York, NY, 1995.

Eker, E., Kayri, M., Ekinci, S., 2019. “Investigation of performance of HHO algorithm in solving Global optimization problems,” in 2019 International Conference on Artifiial Intelligence and Data Processing Symposium, IDAP 2019, 1–6.

Eker, E., Kayri, M., Ekinci, S., 2019. “Kısıtlı optimizasyon problemlerinin çözümü için atom arama optimizasyon algoritması,” DÜMF Mühendislik Derg., 10 (3): 841–851.

El-Shorbagy, M. A., Farag, M. A., Mousa, A. A., El-Desoky, I. M., 2019. A hybridization of sine cosine algorithm with steady state genetic algorithm for engineering design problems. International Conference on Advanced Machine Learning Technologies and Applications. Springer, Cham. 143-155.

Emel, G. G., Taşkın, Ç., 2002. Genetik Algoritmalar ve Uygulama Alanlari. Uludağ Üniversitesi İktisadi ve İdari Bilimler Fakültesi Dergisi, 21 (1).

Engin O., 2001. Akış Tipi Çizelgeleme Problemlerinin Genetik Algoritma ile Çözüm Performansının Arttırılmasında Parametre Optimizasyonu, (yayınlanmamış doktora tezi). İTÜ, Fen Bilimleri Enstitüsü, İstanbul.

Eusuff, M. M., Lansey, K. E., 2003. Optimization of water distribution networkdesign using the shuffled frog leaping  algorithm. J. Water Res. Plan. Manag., 129

(3): 210–25.

F. Kochenberger G.A., 2012 Handbook of Metaheuristics. International Series in Operations Research and Management Science,. Springer, Boston, MA.

Farmer, J. D., Packard N. H., Perelson A. S., 1986. The immune system, adaptationand machine learning. Physica D: Nonlinear Phenom, 22 (1): 187–204.

 



Feng, Z. K., Niu, W. J., Zhou, J. Z., Cheng, C. T., 2020. Linking Nelder–Mead simplex direct search method into two-stage progressive optimality algorithm for optimal operation of cascade hydropower reservoirs. Journal of Water Resources Planning and Management, 146 (5).

Gao, F., Han, L., 2012. Implementing the Nelder-Mead simplex algorithm with adaptive parameters. Computational Optimization and Applications, 51 (1): 259-277.

Gao, W. F., Liu, S. Y., 2012. A modified artificial bee colony algorithm. Computers and Operations Research, 39 (3): 687-697.

Garai, G., Chaudhurii, BB., 2013., A novel hybrid genetic algorithm with Tabu search for optimizing multi-dimensional functions and point pattern recognition. Inf. Sci. 221 (0): 28–48.

Gerşil, M., Palamutçuoğlu, T., 2013. Ders çizelgeleme probleminin melez genetik algoritmalar ile performans analizi. Academic Review of Economics and

Grosan, C., Abraham, A., 2007. Hybrid evolutionary algorithms: methodologies, architectures, and reviews. In Hybrid evolutionary algorithms. Springer, Berlin, Heidelberg, 1-17.

Hamza, N.M., Essam, D.L., Sarker, R.A., 2016. Constraint consensus mutation-based differential evolution for constrained optimization, IEEE Trans. Evol. Comput., 20 (3): 447– 459.

Hancer, E., 2019. Differential Evolution Based Multiple Kernel Fuzzy Clustering.

Journal of the Faculty of Engıneering and Architecture of Gazi University, 34

(3): 1282-1293.

Hussain, K., Salleh, M. N. M., Cheng, S., Naseem, R., 2017. Common benchmark functions for metaheuristic evaluation: A review. JOIV: International Journal on Informatics Visalization, 1 (4-2): 218-223.

Izci, D., Ekinci, S., Orenc, S., Demirören, A., 2020. Improved Artificial Electric Field Algorithm Using Nelder-Mead Simplex Method for Optimization Problems. In 2020 4th International Symposium on Multidisciplinary Studies and Innovative Technologies (ISMSIT) IEEE., 1-5.

Jamil, M., Yang, X. S., 2013. A literature survey of Benchmark functions for global optimization problems. Journal of Mathematical Modelling and Numerical Optimisation, 4, (2),150–194

Jang J. S. R., 1997. Neuro-Fuzzy and Soft Computing: A Computational Approach To

 



Learning and Machine Intelligence, Chapter 7. Derivative-Free Optimization.

Prentice-Hall, USA, 173-196.

Juels, A., Wattenberg, M., 1996. Stochastic hillclimbing as a baseline method for evaluating genetic algorithms. In Advances in Neural Information Processing Systems, 430-436.

Karaboga, D., Basturk, B., 2008. On the performance of artificial bee colony (ABC) algorithm. Applied soft computing, 8 (1): 687-697.

Karaboga, D., Akay, B., 2009. A comparative study of artificial bee colony algorithm.

Applied mathematics and computation, 214 (1): 108-132.

Kennedy, J., Eberhart, R. C., 1995. “Particle Swarm Applied Mathematics 209:160– 166, 2007. Optimization”. Proc. of the IEEE Int. Conference on Neural Networks, 4, 1942-1948.

Kirkpatrick, S., Gelatt, C. D., Vecchi, M. P., 1983. Optimization by simulated annealing. Science, 220 (4598): 671-680.

Koza, J. R., Koza, J. R., 1992. Genetic programming: on the programming of computers by means of natural selection Cambridge, Mass MIT press.

Küçüksille, E. U., Tokmak, M., 2011. Yapay Arı Kolonisi Algoritması Kullanarak Otomatik Ders Çizelgeleme. Journal of Natural and Applied Sciences, 15 (3).

Lagarias, J. C., Reeds, J. A., Wright, M. H., Wright, P. E., 1998. Convergence properties of the Nelder--Mead simplex method in low dimensions. SIAM Journal on optimization, 9 (1): 112-147.

Laguna, M., Marti, R., 2005. Experimental testing of advanced scatter search designs for global optimization of multimodal functions. Journal of Global Optimization, 33 (2): 235-255.

Larson, R., Farber, B., 2019. Elementary statistics. Pearson Education Canada.

Li, Z., Harman, M., Hierons, R. M., 2007. Search algorithms for regression test case prioritization. IEEE Transactions on software engineering, 33 (4): 225-237.

Liu, S. H., Mernik, M., 2013. Exploration and exploitation in evolutionary algorithms: A survey. ACM Computing, 45-37.

Liu, Y., Chong, G., Heidari, A. A., Chen, H., Liang, G., Ye, X., and Wang, M. 2020. Horizontal and vertical crossover of Harris hawk optimizer with Nelder-Mead simplex for parameter estimation of photovoltaic models. Energy Conversion and Management, 223, 113-211.

Lourenço, H. R., Martin, O. C., Stützle, T., 2003. Iterated local search. In Handbook of metaheuristics. Springer, Boston, MA, 320-353.

Ludwig, SA., 2013. Memetic algorithms applied to the optimization of workflow compositions. Swarm Evolut. Comput., 10 : 31–40.

Malviya, R, Pratihar, DK., 2011. Tuning of neural networks using particle swarm optimization to model welding process. Swarm Evolut. Comput., 1 (4): 22-33.

Mathew, D., Rani, C., Kumar, M. R., Wang, Y., Binns, R., Busawon, K., 2017. Wind- driven optimization technique for estimation of solar photovoltaic parameters.

 



IEEE Journal of Photovoltaics, 8 (1): 248-256.

McGill, R., Tukey, J. W., Larsen, W. A., 1978. Variations of box plots. The American Statistician, 32 (1): 12-16.

Michalewicz, Z., Schoenauer, M., (1996). Evolutionary algorithms for constrained parameter optimization problems. Evolutionary computation, 4 (1): 1-32.

Mirjalili, S, Mirjalili, SM, Lewis, A., 2014. Grey wolf optimizer. Adv. Eng. Softw. 69, 46-61.

Mirjalili, S., Lewis, A., 2016. The whale optimization algorithm. Advances in Engineering Software, 95, 51-67].

Mirjalili, S., 2015a. How effective is the Grey Wolf optimizer in training multi-layer perceptrons. Applied Intelligence, 43 (1): 150-161.

Mirjalili, S., 2015b. The ant lion optimizer. Advances in Engineering Software, 83, 80-

 

Mirjalili, S., Gandomi, A. H., Mirjalili, S. Z., Saremi, S., Faris, H., Mirjalili, S. M., 2017. Salp Swarm Algorithm: A bio-inspired optimizer for engineering design problems. Advances in Engineering Software, 114, 163-191.

Mirjalili, S., Gandomi, A. H., Mirjalili, S. Z., Saremi, S., Faris, H., Mirjalili, S. M., 2017. Salp Swarm Algorithm: A bio-inspired optimizer for engineering design problems. Advances in Engineering Software, 114, 163-191.

Mirjalili, S., Hashim, S. Z. M., Sardroudi, H. M., 2012. Training feedforward neural networks using hybrid particle swarm optimization and gravitational search algorithm. Applied Mathematics and Computation, 218 (22).

Mirjalili, S., Mirjalili, S. M., Lewis, A., 2014. Grey wolf optimizer. Advances in Engineering Software, 69, 46-61.

Molga, M., Smutnicki, C., 2005. Test functions for optimization needs. Test Functions for Optimization Needs, 101, 48.

Muro, C., Escobedo, R., Spector, L., Coppinger, R. P., 2011. Wolf-pack (Canis lupus) hunting strategies emerge from simple rules in computational simulations. Behavioural processes, 88 (3), 192-197.

Murty, K. G., 2003. Optimization Models For Decision Making, USA

 



Naderi, B., Ruiz, R., 2014. A scatter search algorithm for the distributed permutation flowshop scheduling problem. European Journal of Operational Research, 239 (2), 323-334.

Nanda SJ, Panda G. 2014. A survey on nature inspired metaheuristic algorithms for partitional clustering. Swarm Evolut. Comput., 16, 1–18.

Nelder, J. A., Mead, R. (1965). A simplex method for function minimization. The computer journal, 7 (4): 308-313.

Nenavath, H., Jatoth, R. K., Das, S., 2018. A synergy of the sine-cosine algorithm and particle swarm optimizer for improved global optimization and object tracking. Swarm and Evolutionary Computation, 43, 1-30.

Oftadeh, R., Mahjoob, MJ., Shariatpanahi, M., 2010. A novel meta-heuristic optimization algorithm inspired by group hunting of animals: hunting search. Comput. Math. Appl., 60 (7): 2087–98.


Artış Tahmini. Türkiye Bilişim Vakfı Bilgisayar Bilimleri ve Mühendisliği Dergisi, 11, 40-51.

Pehlivanoğlu, V., 2017. Optimizayon Temel Kavramlar ve Yöntemler Kitabı. 1. Baskı Ankara.

Qiu, X., Xu, J.X., Tan, K.C., Abbass, H.A., 2016. Adaptive cross-generation differential evolution operators for multiobjective optimization, IEEE Trans. Evol Comput., 20 (2): 232–244.

Ranjan, P., Choubey, A. Mahto, SK., 2017. Rüzgâr tahrikli optimizasyon tekniğini kullanan geniş açılı polarizasyondan bağımsız çok katmanlı mikrodalga emici. International Journal of Applied Engineering Research, 12 (19): 8016-8025.

Rao, S. S., Desai, R. C., 1980. Optimization theory and applications. IEEE Transactions on Systems, Man, and Cybernetics, 10 (5): 280-2.

Reeves, W.T., 1983. Particle systems—A technique for modelling a class of fuzzy objects. ACM Trans. Graph., 2, 91–108.

Reynolds, C.W., 1987. Flocks, herds, and schools: A distributed behavioral model.

ACM Comput. Graph., 21, 25–34.

Russel, S., Norvig, P., 2013. Artificial intelligence: a modern approach. Pearson Education Limited.

 



Satman, M., 2007. Durağan Zaman Serilerinde Uygun Arma Modelinin Genetik Algoritmalar ile Bulunması ve İMKB Verileri Üzerine Bir Uygulama. İstanbul Üniversitesi İktisat Fakültesi Mecmuası, 57 (1): 21-38.

Sayah, S., Hamouda, A., 2013. A hybrid differential evolution algorithm based on particle swarm optimization for nonconvex economic dispatch problems, Appl. Soft. Comput., 13 (4): 1608–1619.

Sengupta, S., Basak, S., Peters, R. A., 2019. Particle Swarm Optimization: A survey of historical and recent developments with hybridization perspectives. Machine Learning and Knowledge Extraction, 1 (1): 157-191.

Senthilnath, J., Omkar, SN., Mani, V., 2011. Clustering using firefly algorithm: performance study. Swarm Evolut. Comput., 1 (3): 164–71.

Seyedali, M., 2020. Real-coded Simulated Annealing https://www.mathworks. com/matlabcentral/fileexchange/74016-real-codsimulatedannealing,













Storn, R., Price, K., 1997. Differential evolution–a simple and efficient heuristic for global optimization over continuous spaces, J. Global Optim, 11 (4): 341–359.

Suid, M. H., Ahmad, M. A., Ismail, M. R. T. R., Ghazali, M. R., Irawan, A., Tumari, M. Z., 2018. An improved sine cosine algorithm for solving optimization problems. In 2018 IEEE Conference on Systems, Process and Control (ICSPC) 209-213, IEEE.

Tang, R., Fong, S., Yang, X., Deb, S. 2012. Wolf search algorithm with ephemeral memory. In: Proceedings of the Seventh International Conference on IEEE Digital Information Management (ICDIM).

Ting, T. O., Yang, X. S., Cheng, S. Huang, K., 2015. Hybrid metaheuristic algorithms: past, present, and future. Recent advances in swarm intelligence and evolutionary computation, 71-83.

Tizhoosh, H. R., 2005. “Opposition-Based Learning: A new scheme for machine intelligence,” in International Conference on Computational Intelligence for Modelling, Control and Automation and International Conference on Intelligent Agents, Web Technologies and Internet Commerce (CIMCA- IAWTIC’06), 1, 695–701.

Trivedi, A., Srinivasan, D., Biswas, S., Reindl, T., 2016. A genetic algorithm differential evolution based hybrid framework: case study on unit commitment

 



scheduling problem, Inf. Sci. (Ny), 54: 275–300.

Tuo, S., Zhang, J., Yuan, X., Yong, L., 2018. A new differential evolution algorithm for solving multimodal optimization problems with high dimensionality. Soft Computing, 22 (13): 4361-4388.

Wang, D., Tan, D., Liu, L., 2018. Particle swarm optimization algorithm: an overview.

Soft Computing, 22 (2): 387-408.

Wang, P. C., Shoup, T. E., 2011. Parameter sensitivity study of the Nelder–Mead simplex method. Advances in Engineering Software, 42 (7): 529-533.

Wang, Y., Cai, Z., Zhang, Q., 2011. Differential evolution with composite trial vector generation strategies andcontrol parameters, Evol. Comput., IEEE Trans., 15

(1): 55–66.

Wang, Y., Li, H.-X., Huang, T., Li, L., 2014. Differential evolution based on covariance matrix learning and bimodal distribution parameter setting, Appl. Soft. Comput., 18, 232–247.

Winston, W.L., 2003. Operations Research: Applicatios and Algorithms, 4. baskı, Internation Thomson Publishing, Belmont, CA.

Wolpert, D. H., Macready, W. G., 1997. No free lunch theorems for optimization.

Evolut. Comput. IEEE Trans., 1 (1): 67–82.

Wright, M. H., 2010. Nelder, Mead ve diğer simpleks yöntemi. Documenta Mathematica, 7, 271-276.

Wu, G., Mallipeddi, R., Suganthan, P., Wang, R., Chen, H., 2016. Differential evolution with multi-population based ensemble of mutation strategies, Inf. Sci. (Ny), 329 329–345.

Xie, Y., Liu, M., Feng, T., Xu, Y., 2020. Compact disordered magnetic resonators designed by simulated annealing algorithm. De Gruyter, Nanophotonics Nanophotonics, 9 (11), 3629–3636

Xu, S., Wang, Y., Liu, X., 2018. Parameter estimation for chaotic systems via a hybrid flower pollination algorithm. Neural Computing and Applications, 30 (8): 2607-2623.

Xu, S., Wang, Y., Wang, Z., 2019. Parameter estimation of proton exchange membrane fuel cells using eagle strategy based on JAYA algorithm and Nelder-Mead simplex method. Energy, 173, 457-467.

Yang X-S., 2010. A new metaheuristic bat-inspired algorithm. Nature Inspired Cooperative Strategies for Optimization (NICSO 2010). Springer; 65–74

Yang, M., Li, C., Cai, Z., Guan, J., 2015. Differential evolution with auto-enhanced population diversity, Cybern., IEEE Trans. 45 (2): 302–315

Yang, X. S., 2010. Nature-inspired metaheuristic algorithms. Luniver press.

Yang, X. S., 2010. Test Problems in Optimization. Engineering Optimization: An Introductiowith Metaheuristic Applications John Wliey and Sons.

Yang, X. S., 2011. Sezgiselüstü optimizasyon. Scholarpedia, 6 (8): 11472.

 



Yang, X. S., Deb, S., He, X., 2013. Eagle strategy with flower algorithm. In Proceedings of the 2013 International Conference on Advances in Computing, Communications and Informatics, 1213–1217.

Yao, X., Liu, Y., Lin, G., 1999. Evolutionary programming made faster. IEEE Transactions on Evolutionary computation, 3 (2): 82-102.

Yıldız, A. R., 2009. An effective hybrid immune-hill climbing optimization approach for solving desi and manufacturing optimization problems in industry. Journal of Materials Processing Technology, 209 (6): 2773-2780.

Zeynelgil, C., Ekinci, H. L., ve Hekimoğlu, B., 2019. PID Controller Design Based on Sine Cosin and Data Processing Symposium (IDAP), 1-7, IEEE

Zhang, L., ED, L., Yang, X. S., Dai, Y., 2016. A novel hybrid firefly algorithm for global optimization. PloS One, 11 (9).

Zheng, Y.-J., Xu, X.-L., Ling, H.-F., Chen, S.-Y., 2015. A hybrid fireworks optimization method with differential evolution operators, Neurocomputing, 148, 75–82.

Zheng, Y-J., 2015. Water wave optimization: a new nature-inspired metaheuristic.

Comput. Oper. Res., 55, 1–11.

Zhu, W., Tang, Y., Fang, J.-A., Zhang, W., 2013. Adaptive population tuning scheme for differential evolution, Inf. Sci., 223, 164–191.

 



ÖZ GEÇMİŞ




Evli ve 3 çocuk babasıdır. Van İpekyolu Cumhuriyet Ortaokulunda Müdür Yardımcısı olarak görev yapmaktadır. 2002 yılında Yüzüncü Yıl Üniversitesi Eğitim Fakültesi İlköğretim Matematik bölümünden mezun olmuştur. 2021 yılında Yüzüncü Yıl Üniversitesi İş Sağlığı ve Güvenliği tezsiz yüksek lisans muzunudur.






 



T.C

VAN YÜZÜNCÜ YIL ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ

LİSANSÜSTÜ TEZ ORİJİNALLİK RAPORU

Tarih: ../.6.!.P.} ../202..!

Tez Başlığı/ Konusu:

SEZGİSELÜSTÜ ARAMA ALGOR.İTMALARDA YEREL ARAMA ALGORİTMALARININ KULLANIMI VE UYGULAMA ÖRNEKLERİ

Yukarıda başlığı/konusu belirlenen tez çalışmanım Kapa sayfası, Giriş, Ana bölümler ve Sonuç bölümlerinden oluşan toplam 69 sayfalık kısmına ilişkin, ...f 6 ... / ... Ot. ..1..,20,2-,J. tarihinde şahsım/tez

danışmanını tarafından TURNİTİN intihal tespit programından aşağıda belirtilen filtreleme uygulanarak alınmış olan orijinallik raporuna göre, tezimin benzerlik oranı% 4 (Dört) dür.

Uygulanan filtreler aşağıda verilmiştir:

- Kabul ve onay sayfası hariç,

- Teşekkür hariç,

- İçindekiler hariç,

- Simge ve kısaltmalar hariç,

- Gereç ve yöntemler hariç,

- Kaynakça hariç,

- AIıntı!ar hariç,

- Tezden çıkan yayınlar hariç,

- 7 kelimeden daha az örtüşme içeren metin kısımları hariç (Limit inatch size to 7 words)


Van Yüzüncü Yıl Üniversitesi Lisansüstü Tez Orijinallik Raporu Alınması ve Kullanılmasına İlişkin Yönergeyi inceledim ve bu yönergede belirtilen azami benzerlik oranlarına göre tez çalışmamın herhangi bir intihal içermediğini; aksinin tespit edileceği muhtemel durumda doğabilecek her türlü hukuki sorumluluğu kabul ettiğimi ve yukarıda vermiş olduğum bilgilerin doğru olduğunu beyan ederim.


Gereğini bilgilerinize arz ederim.


Tarih ve İmza

Adı Soyadı: Cengiz İPEK Öğrenci No:19910001200 Anabilim Dalı: İSTATİSTİK Programı: ....

Statüsü:  Y. Lisans X Doktora □

DANIŞMAN ONAYI ENSTİTÜ ONAYI

UYGUNDUR UYGUNDUR


Prof. Dr. Murat KAYRI


Hiç yorum yok:

Yorum Gönder