HPE ve NVIDIA iş birliğiyle düzenlenen HPE AI Roadshow için MEXT Teknoloji Merkezi’ndeydik.
Toplantıya katılamayanlar için aldığım notları yazımda bulabilirsiniz.
HPE AI Roadshow için MEXT Dijital Fabrika’daydık
Yapay zeka stratejilerinin “vizyondan değere” dönüştüğü söz konusu buluşmada, HPE Türkiye, Balkanlar, Kafkaslar ve Orta Asya Genel Müdürü Güngör Kaymak’tan AI Factory yaklaşımının işletmelere sağladığı maliyet ve güvenlik avantajlarını dinledik. Özellikle 2026 yılındaki karmaşık uygulama ihtiyaçları göz önüne alındığında, veriyi yerinde işleyerek gerçek sonuçlara dönüştüren ölçeklenebilir altyapıların kamu bulutu alternatiflerine kıyasla sunduğu rekabetçi farkları derinlemesine analiz etme fırsatı bulduk.
Toplantı, HPE Türkiye, Balkanlar, Kafkaslar ve Orta Asya Genel Müdürü Güngör Kaymak’ın ev sahipliğinde; HPE Türkiye, Balkanlar, Kafkaslar ve Orta Asya Doğu-Güney Kümesi İş Geliştirme ve Dönüşüm Projeleri Yöneticisi Mert Sarıkaya ile HPE Orta Avrupa Yapay Zeka Mükemmeliyet Merkezi Başkanı Stefan Brock’un katılımıyla gerçekleşti.
Toplantıya katılamayanlar için aldığım notları aşağıda paylaşıyorum.
HPE ve NVIDIA iş birliğiyle düzenlenen HPE AI Roadshow’un Ardından

HPE’nin NVIDIA ile yürüttüğü HPE AI Roadshow hattının Türkiye ayağı, “kurumsal yapay zekâ” konusunu doğrudan uygulama ve altyapı başlıklarına indirdi. Etkinlik formatı, kurumların yapay zekâ yolculuğunda hangi aşamada bulunduğunu görmeye ve HPE–NVIDIA ortaklığının “hazır, doğrulanmış ve kurumsal destekli” mimari yaklaşımını somut örneklerle tartışmaya odaklandı. MEXT Dijital Fabrika sahnesi ise üretim tarafında denenen senaryoları otomasyon ve robotik örnekleriyle gündelik iş akışına taşıyan bir laboratuvar gibi konumlandı.
Toplantı, Güngör Kaymak’ın HPE’deki görevini ocak sonu itibarıyla icrayı devredip yılın ilk aylarında yeni yönetime destek sürecini sürdürmeyi planladığını paylaşmasıyla başladı. Güngör Kaymak’ı çok seviyor ve sayıyorum; toplantılarda onu görmeye, fikirlerini duymaya epey alışmıştım. Ayrılık haberi bende hüzün yarattı. Öte yandan ailesine ve kendisine daha fazla zaman ayırabilecek olması, onun adına içimi ferahlattı…
Güngör Kaymak, tam zamanlı çalışma niyetinin şu aşamada ön planda olmadığını, yine de teknoloji dünyasının dışına çıkmayı da planlamadığını söyledi. Bildiklerini paylaşacağı, gençlere ve ekosisteme katkı sunacağı alanları açık tuttuğunu, HPE’nin “elçiliğini” her zaman yapacağını vurguladı.
“Dünya iş birliği dünyası”

Kişisel notlarının ardından Güngör Kaymak, 12 yıllık Türkiye liderliği dönemine dönerek HPE’nin dönüşümünü hem organizasyonel kırılmalar hem de satın almalar üzerinden özetledi. HPE ve HP olarak ayrışma sürecinin ardından şirketin teknoloji portföyünü satın almalarla güçlendirdiğini, hibrit mimariler, süper bilgisayarlar, veri analitiği ve yapay zekâ ekseninde “lider çözüm portföyü” kurma stratejisini sürdürdüğünü anlattı. Network tarafındaki iddiayı da özellikle Juniper satın alımı sonrası yeni konumlanma üzerinden tarif etti; geniş alan ağından veri merkezi içine uzanan, yapay zeka ile yönetilen ve yapay zeka iş yükleri için kurgulanan ağ yaklaşımını vurguladı.
Kaymak’ın anlatımında üç başlık özellikle öne çıktı. İlk başlık, yapay zekâ ilgisinin giderek büyüdüğü ve bunun bir “anlık gündem” olarak kalmayacağıydı. Her yatırımın aynı sonuçları üretmeyeceğini kabul ederken, binlerce paralel çalışmanın içinden kalıcı etki yaratacak uygulamaların süzüleceğini; söz konusu etkilerin hem bireylerin günlük hayatına hem kurumların operasyonlarına yansıyacağını ifade etti. İkinci başlık, iş birlikleriyle büyüyen ekosistem yaklaşımıydı. Bugünün teknolojik seviyesinde tek bir şirketin her ihtiyaca tek başına yanıt vermesinin mümkün olmadığını, doğru ortaklıklar kurulmadığında herkesin geride kalacağını açık biçimde dile getirdi. Üçüncü başlık ise sürdürülebilirlik ve verimlilikti. Sıvı soğutma tarafındaki patent ve teknoloji birikiminden, veri merkezlerinin artan enerji ihtiyacına karşı geliştirilen yeniliklerden söz etti. Kullanılmış cihazların yenilenip yeniden ekonomiye kazandırılması ve “kullandıkça öde” yaklaşımını güçlendiren GreenLake benzeri hizmet modelleriyle israfın azaltılmasına da özellikle değindi. Konuşmasının sonunda Stefan Brock’u tanıtarak sözü uygulama örnekleri tarafına taşıdı.
“Yapay zekâ nerede değer üretir”

HPE Orta Avrupa Yapay Zeka Mükemmeliyet Merkezi Başkanı Stefan Brock, konuşmasını “yapay zekâ nerede değer üretir” sorusu etrafında kurdu ve bu soruyu sektör örnekleriyle somutlaştırdı. En güçlü örnek sağlık alanından geldi. Genomik analiz ve sekanslama süreçlerinde doğru altyapı ve hazır modellerle, haftalar süren işlerin dakikalara indiğini; bunun da doktorların karar verme hızını ve tedavi planlama akışını doğrudan etkilediğini anlattı. Kendi kişisel deneyimlerinden yola çıkarak, söz konusu hızlanmanın “teknik bir performans” başlığından öte, insan hayatına dokunan bir faydaya dönüştüğünü vurguladı. Bu yaklaşım, yapay zekâ yatırımlarının yalnız verimlilik metriğiyle ölçülmeyeceği fikrini güçlendirdi.

Otomotiv ve üretim tarafında Brock, “veri odaklı tasarım” kavramı üzerinden ilerledi. Otonom sürüşe giden yolda güncelleme, izlenebilirlik ve veri erişimi gibi ihtiyaçların hızla büyüdüğünü; büyük ölçekli üreticilerde veri setlerine erişmenin zorlaştığını söyledi. Yapay zekâ ile bu karmaşık veri katmanlarının daha yönetilebilir hale geldiğini, OEM’lerden tedarik zinciri katmanlarına uzanan ağda (T1–T2 tedarikçiler dahil) benzer bir dönüşüm yaşandığını ifade etti.

Brock’un ikinci kritik hattı kurum içi hazırlıktı. Liderlik ekibinin veriyle ve yapay zekâyla düşünmeye hazır olması, çalışanların eğitim süreçleri, deneme–test kültürü ve organizasyonel yapı tasarımı; ona göre teknolojik seçim kadar belirleyici. Yapay zekâ dalgasına “işleri bitiren bir güç” gibi yaklaşan popüler anlatının gerçeği yansıtmadığını; endüstriyel dönüşümlerin tarihte iş alanlarını dönüştürdüğünü ve yeni roller oluşturduğunu anımsatarak, benzer bir dönüşümün burada da yaşanacağını dile getirdi.
“Veri ve model girer, zekâ çıkar”
HPE Türkiye, Balkanlar, Kafkaslar ve Orta Asya Doğu-Güney Kümesi İş Geliştirme ve Dönüşüm Projeleri Yöneticisi Mert Sarıkaya, günün ana kavramını AI Factory yaklaşımıyla toparladı ve kavramı klasik fabrika analojisiyle sadeleştirdi. Geleneksel fabrikada ham madde girdisi işlenmiş ürüne dönüşür. Yapay zekâ fabrikasında ise veri ve model girdidir; çıktı “zekâ” olarak konumlanır. Sarıkaya, söz konusu çerçevenin soyut kalmaması için mimariyi katmanlara ayırdı.
İlk katman altyapıydı. Burada yüksek hesaplama gücü, işlemci kapasitesini birbirine bağlayan ağ, işin enerji ve sürdürülebilirlik boyutu yer alıyor. İkinci katman yönetim katmanı olarak tarif edildi. Veri yaşam döngüsü, model yaşam döngüsü, kimin hangi veriye nasıl erişeceği, hizmetleştirme senaryolarında kullanım ve faturalama kontrolü; bu katmanın konusu. Üst katmanda yapay zekâ iş yükleri ve uygulamaları bulunuyor. Sarıkaya, klasik siber güvenliğin yanında “AI güvenliği” başlığının da gündeme geldiğini, ayrıca tüm yapının gözlemlenebilirliğini sağlayan yazılımların kritik olduğunu vurguladı.
Sarıkaya’nın anlatımında HPE–NVIDIA ortaklığının temel vaadi, entegrasyon riskini düşüren ve kurumsal destekle gelen “hazır set” yaklaşımı oldu. Özellikle HPE Private Cloud AI tarafında, donanım–yazılım–hizmet bileşenlerinin doğrulanmış yapıda sunulması, açık kaynak ekosisteminde uyumluluk arayışıyla zaman kaybetmeden hızlı geliştirme ve devreye alma hedefi öne çıktı. Daha büyük ölçek için “AI Factory SDK” benzeri yapılardan söz etti; 100 GPU seviyelerinden başlayıp çok daha yüksek ölçeklere uzanan kurulumlardan bahsetti. Regülasyon hassasiyeti yüksek kurumlar için internet bağlantısı sınırlı ya da kapalı, egemenlik ve güvenlik özellikleri güçlendirilmiş mimarilerin ise ayrı bir sınıf olarak tasarlandığını ekledi.
Türkiye’nin ilk HPE Özel Bulut AI müşterisi
Toplantıda aşağıdaki soruyu sordum:
“Dünya Katılım, Türkiye’nin ilk HPE Özel Bulut AI müşterisi olarak açıklandı. Bir katılım bankasının bu teknolojiye öncülük etmesi oldukça dikkat çekici. Sizce Türkiye’deki diğer geleneksel bankalar ve yeni nesil dijital bankalar, ‘AI-Native’ bir yapıya geçmekte geç mi kalıyorlar? Dünya Katılım projesi, sektördeki diğer oyuncular için bir ‘teknolojik eşik’ oluşturabilir mi?”
Bu soruya verilen yanıtlar, Dünya Katılım projesinin “tek bir kurulum” başlığından ibaret görülmediğini gösterdi. Mert Sarıkaya, söz konusu iş birliğinin çıkış noktasını, bankanın yapay zekâ yolculuğunu hızlandırma ihtiyacı olarak tarif etti. Dünya Katılım’ın yeni kurulan, hızlı hareket etmek isteyen bir marka olduğunu; buna paralel biçimde “hazır ve kurumsal destekli” bir yapının, açık kaynak ekosisteminde yön bulma yükünü azaltacağını vurguladı. Banka tarafının, yapay zekâ ihtiyaçlarını tek birim üzerinden yönetmek yerine, kurum içinde talep toplama ve önceliklendirme mekanizması kurmaya yöneldiğini; farklı birimlerden gelen kullanım senaryolarını dinlemek, sınıflandırmak ve sıraya koymak için bir komite/komisyon yaklaşımını benimsediğini aktardı. Bu model, yapay zekâ projelerinin “tek bir departmanın deneyi” gibi kalmaması için önemli bir yönetişim işareti taşıyor.
Güngör Kaymak da kullanıcı tarafında dinlediği gözlemleri paylaştı. Bankacılık sektörünün regülasyon yoğunluğu nedeniyle, özellikle operasyonel veri ve süreçler söz konusu olduğunda, kamu bulutuna açılan yapay zekâ kullanımının her senaryoda kolay ilerlemediğini; kurumların kendi verisini kendi veri merkezinde tutabildiği, aynı zamanda yapay zekâ yığınının hazır geldiği bir yaklaşımın daha cazip hale geldiğini ifade etti. Eğitim ve kullanım desteğinin çözümün parçası olarak konumlanması da, kurumların “deneyip öğrenme” sürecini hızlandıran bir unsur olarak öne çıktı.
Finans sektörü özelinde Sarıkaya’nın yaklaşımı daha geniş bir tabloya işaret etti. Türkiye’de finansın teknoloji adaptasyonunda genellikle önde seyrettiğini, yapay zekâ tarafında da benzer bir iştahın görüldüğünü, bankaların önemli yatırımlar yaptığını belirtti. Benim açımdan Dünya Katılım örneğini ilginç kılan nokta, “kimin önce yaptığı” sorusundan çok, bu kurulumun sektördeki diğer oyunculara bir referans mimari ve yönetişim yaklaşımı sunma potansiyeli oldu. Projenin başarı kriteri de bu yüzden yalnız hız veya kapasite ölçütleriyle sınırlı kalmayacak; içeriden gelen taleplerin yönetimi, kullanım senaryosu üretme ritmi ve güvenlik/egemenlik çizgisi gibi başlıklar belirleyici olacak.
Model seçimi nasıl olacak?
Bir arkadaşım model seçimleri ile ilgili bir soru yöneltti. Soru tarafında iki eksen öne çıktı. İlk eksen, “çok veri var, anlamlı sonuç üretmek istiyorum” diyen bir kurumun, yapay zekâ fabrikası yaklaşımında model katmanını nasıl konumlandıracağıydı. İkinci eksen ise model seçimi olgunluğu: kurumların Grok, Llama benzeri büyük dil modellerinden hangisini seçmesi gerektiği, kendi verisini ne aşamada devreye alacağı, tedarikçinin burada danışmanlık rolünün sınırları.
Bu başlıkta Mert Sarıkaya, “göreve göre optimize model” yaklaşımını vurguladı. Üretken yapay zekâ görevlerinde bazı modellerin belirli görev setlerinde daha iyi sonuç verdiğini, bu noktada danışmanlıkla yönlendirme yapabildiklerini söyledi. Ardından NVIDIA’nın kurumsal yazılım setleri içinde konumlanan NVIDIA Inference Microservices (NIM) tarafını açtı. NIM’i, belirli görevler için önceden optimize edilmiş, gerektiğinde ince ayarla kullanıma hazır hale getirilmiş model paketleri olarak tanımladı. Böylece kurumların “modeli sıfırdan ayağa kaldırma” yükü azalırken, test ve devreye alma süreçleri hızlanabiliyor.
Güngör Kaymak’ın eklediği çerçeve ise seçim alanını “kuruma” bırakan bir yaklaşımı işaret etti. Hangi büyük dil modeliyle çalışılacağı, kurumun stratejisi ve kullanım senaryosuna göre değişebilir. Asıl kritik nokta, kurumun kendi verisini dışarı taşımadan, güvenli bir ortamda deneme yapabilmesi ve kendi bağlamına uyarlanmış çıktılar üretebilmesi. Konuşmada “kısa yol” olarak öne çıkan mesaj, altyapının ve yazılım yığınının hazır gelmesi sayesinde kurumların modeli seçme ve uyarlama süreçlerine daha erken odaklanabilmesi oldu.
HPE’nin altyapı sağlayıcısı kimliği değişime mi uğruyor?
Toplantının finalinde HPE’nin “altyapı sağlayıcısı” kimliği ile “uygulama/çözüm evi” beklentisi arasındaki çizgiye dair şu soruyu sordum:
“HPE Türkiye’nin gelecek vizyonunda kendinizi sadece bir altyapı sağlayıcısı olarak mı görüyorsunuz, yoksa yapay zeka uygulamaları geliştiren bir yazılım ve çözüm evi olmaya mı evriliyorsunuz?”
Bu soruya gelen yanıt, HPE’nin kendisini “uygulama geliştiren bir yazılım evi” olarak konumlamaktan çok, iş birlikleriyle müşterinin uygulama geliştirme hızını yükselten bir omurga kurmaya odaklandığını gösterdi. Mert Sarıkaya, hedefin müşterilerin yapay zekâ uygulamalarını daha hızlı hayata geçirebileceği noktaya ulaşmak olduğunu; bunun için altyapıyı etkin biçimde yönetecek yazılımlar sunduklarını ifade etti. Uygulama katmanı tarafında ise ekosistem ortaklıklarının, entegrasyonun ve hazır bileşenlerin devreye girdiği bir model çizildi. Güngör Kaymak da “altyapı sağlayıcısı” tarafının hâlâ ana omurga olduğunu kabul ederken, HPE’nin kendi çözümleri ve portföyü nedeniyle dışarıdan bakıldığında zaman zaman “AI çözümleri sunan şirket” gibi algılanabildiğini belirtti. Benim dinlediğim yerden çıkan sonuç, HPE’nin uygulama katmanını doğrudan sahiplenmekten ziyade, uygulama geliştirme süresini kısaltan doğrulanmış mimari ve yönetim yazılımlarıyla müşteriye alan açma hedefini öne aldığı yönünde.



