web analytics

BIG DATA (BÜYÜK VERİ)

TDK veriyi şöyle açıklıyor: “Bir araştırmanın, bir tartışmanın, bir muhakemenin temeli olan ana öge, muta, done.”

Diğer bir açıklamasında ise:” Ham, işlenmemiş gerçek bilgi parçacığı.” Bir de örneklemeyle anlatalım. Mesela Quaresma ‘nın bir maçtaki doğru pas
yüzdesinin %83 olması veya bir partinin 2018 seçiminde aldığı oy oranı bize bir hikayenin tamamını anlatmıyor. Bir de bu sete sadece Quaresma değil Beşiktaş’taki hatta ligdeki tüm oyuncuların bu verilerini eklediğimizde ligdeki oyuncuları tarihselliğiyle anlatan “büyük” bir veri elimize geçiyor.Bu tek başına anlamlı olmayan veri aslında hem sayısal hem de nitelik belirten değişkenlerden oluşan bir set. Peki bu veriyi anlamlandırmanın basamakları neler? Bu konsepte daha basit bakmak için bilgi piramidinden bahsedelim. Bilgi piramidinin basamaklarını bilmek
veriden büyük veriye olan yolculuğu hayal etmemizde bize yardımcı
olacak. Bilgi piramidinin 4 basamağı var her bir basamaktan sonrakine ilerlerken önceki basamaktan anlayıp öğrendiklerimizle hareket ediyoruz. Piramidin en temelinde, birinci basamağında veri yani data var, veri basit bir şekilde işlendiğinde ikinci basamağa yani bilgi(info) basamağına ulaşıyoruz, bu bilgiler birikince de tecrübe, birikim(knowledge) basamağı yani üçüncü basmağa geçiyoruz, bu tecrübelerden faydalandığımızda ise son basamağa yani bilgeliğe(wisdom) ulaşıyoruz. Bu bilgeliği kendi yapay zekalarıyla karar verip hareket eden robotların yolculuğuna da benzetebiliriz. Mesela yolun ortasında bir robotsun, gözündeki kameradan aldığın görüntü senin verin, görüntüden bir araba olduğunu anlaman bilgiyken bu arabanın sana yaklaştığını fark etmen birikim, eğer yoldan
çekilmezsen arabanın sana çarpacağını bilmekte bilgelik diyebiliriz. Gelelim asıl konuya; bu veriler nerden geliyor? En baştan alacak olursak 19.yy’ın başından başlayarak bilim insanları doğadaki süreçleri anlayabilmek için deneyler yapmış. Örneğin X bir ülke bir toprağı sömürgesi yaptıysa oradaki doğa olaylarını, madenleri, bitki örtüsünü anlayıp oradan daha iyi nasıl faydalanacaklarını bu yolla anlamış. Bu deneylerin kayıtlarını alarak ilk verileri oluşturmuşlar. Sonra aradan koskoca bir sanayi devrimi ve dijitalleşme süreci geçince hem verinin kendisi hem kaynakları hem de işlenme metodları değişti, günümüzde veriler dijital olarak kaydedilip işlendiği için hem çok daha fazla veriyle işlem yapılabilmeye başlandı hem de dijitalleşen her sektörden veri toplamaya başladık. Yani dijitalleştirilip işlenebilecek olan her şey bir veri havuzu oluşturmaya başladı. Peki veri neden hepimizi ilgilendiren
bir konu oldu? Çünkü her an verilerimizi etrafa yayıyoruz; akıllı telefonlarımızla, yaptığımız harcamalarla hatta artık nerdeyse attığımız her adımla. Haliyle bu 2 yüzyıllık süreçte de sahip olduğumuz veriler aşırı büyüdü ama o kadar büyüdü ki 200 yıl önce insanlık deney yapıp veri
toplarken bugün içinde yüzdüğümüz veri havuzuna soru sormaya başladık. Aslında büyük veri(big data) hakkında daha birçok hepsi birbirinden önemli ayrıntılar var fakat gözler yorulmasın, kafalar karışmasın diye çok kısa bir özet geçelim: Sosyal medya ,arama motorları , bilgi belge arşivleri, log dosyaları, makine dataları gibi farklı kaynakların oluşturduğu bilgi yığınlarını işleyerek anlamlı verilere dönüştürmek için ar-ge faaliyetleri yapan yazılım şirketleri tarafından ortaya atılmış bir olgudur.

Yararlandığım kaynaklar: https://youtu.be/g7cae7Murm8

Furkan Kılıç

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.