2020 yılında Internet’e bağlı nesnelerin sayısının 20 milyarı bulacağı öngörülüyor. Günlük işlem sayısı da 450 milyara erişecek. Oluşacak veri miktarı da 2009 yılındakinin 44 katını bulacak. Bu tabloda öne çıkacak konular verilerin kalitesi ve verilerden çıkartılacak anlam ile iş ve imalat süreçlerinin nasıl iyileştirileceği.  

* * *

Veri kalitesi veri doğruluğundan çok “ilgili” veriler üzerine odaklanıyor. Sensörler kalibre edilmiş ve veri toplama otomatik olunca doğruluk sorun olmuyor. Ancak toplanan büyük veriden ilgilileri seçme konusu sorun. Bunun nedeni ilgili veri seçiminin uzun zaman gerektirmesi, donanım ne kadar gelişmiş olsa da... 

* * *

Verileri enformasyona dönüştürerek anlam çıkartma konusu insana bırakılırsa içinden çıkılamayacağı açık! Çözüm yazılım ajanları kullanmaktan geçiyor. Ajanların bu görevi yerine getirebilmeleri için de istatistiksel öğrenme teorisine uygun algoritmaları içermelerine gerek var. Algoritmalar ya veri analizlerine dayanarak trendleri, aralarında benzerlik bulunan unsurları, neden sonuç ilişkilerini keşfetmeyi ve olasılık değerleri ile gerçekleşebilecek olayları öngörüyorlar ya da bu öngörüleri sağlayacak akıl yürütme mekanizmalarını oluşturuyorlar. Önümüzdeki dönemde çok büyük önem kazanacak bu algoritmaları veri bilimci olarak adlandırılan ileri istatistik ve yapay zeka uzmanlarına geliştirecekler.  

Yeni dönemde otomasyoncu ile veri bilimci "body" olacak…