Yapay zeka ile dolandırılıcılık girişimleri artıyor. Bu makalemde, OpenAI CEO’su Sam Altman’ın Fed yetkilileriyle yaptığı son sohbete dikkatinizi çekmek istiyorum.
Yapay Zeka ile Dolandırıcılık Tehlikesi Derinleşiyor
ChatGPT liderliğinde yapay zekâ çözümleri son yıllarda önemli bir eşiği aştı ve son kullanıcıların hayatlarında büyük yer edinmeyi başardı. Bu dönüşüm, günlük yaşantımızda pek çok davranış değişikliğini beraberinde getirdi. Artık pek çok kişi yazılım tabanlı rutin çözümlere ücret ödemek yerine ücretsiz yapay zekâ araçlarını kullanmayı tercih ediyor; internette arama alışkanlıklarımız bile değişiyor. Öyle ki yapay zekâ destekli arama motorları, yıllardır sektörün lideri olan Google’ın tahtını sarsmaya başladı.
Kurumsal hayatta da benzer bir dönüşüm yaşanıyor: Şirketler ChatGPT gibi yapay zekâ araçları sayesinde verimliliklerini artırıyor, bir zamanlar uzun süre alan işler dakikalar içinde tamamlanabiliyor. Tasarım ve yazılım alanında baş döndürücü hızda gerçekleşen gelişmeler ile son dönemde tabana yayıldığını gördüğümüz AI agent’lar (yapay zekâ ajanları) bu değişimin parçaları arasında yer alıyor. Kimi çevrelerde yapay zekânın insanları tembelleştirdiği tartışılsa da, tüm bu yenilikleri bir kenara koyduğumuzda genel tablo son derece olumlu görünüyor.
Ancak yapay zekâ çağındaki bu dönüşümde, zaman zaman dile getirildiği halde yeterince odaklanılmayan bir boyut var: tehditler. Yapay zekânın getirdiği riskler ve özellikle de dolandırıcılık amaçlı kullanım senaryoları, en az sağladığı faydalar kadar ciddiye alınmalı. Bu noktada OpenAI CEO’su Sam Altman’ın Amerika Birleşik Devletleri Merkez Bankası (Fed) yetkilileriyle yaptığı son sohbet, dikkatlerin yapay zekâ kaynaklı güvenlik risklerine çevrilmesini sağladı. Altman’ın uyarıları, yapay zekânın sadece verimlilik ve inovasyon değil, güvenlik ve risk yönetimi alanlarında da yeni bir dönemi başlattığını gösteriyor.
Sam Altman’dan “Büyük Dolandırıcılık Krizi” Uyarısı
OpenAI CEO’su Sam Altman, Temmuz 2025’te Washington’da Fed tarafından düzenlenen bankacılık konferansındaki konuşmasında yapay zekâ destekli dolandırıcılıklar konusunda çok ciddi bir tehlikenin kapıda olduğunu vurguladı. Altman, özellikle ses taklitleriyle yapılan kimlik doğrulama sahtekârlıklarına dikkat çekerek “yakın zamanda çok büyük bir dolandırıcılık krizi yaşayacağımızdan endişeliyim” diye uyardı. Finansal kurumların hala sesli kimlik doğrulamayı bir güvenlik yöntemi olarak kullanmaya devam etmelerinin büyük bir hata olduğunu belirten Altman, bunu “artık yapılmaması gereken çılgınca bir şey” olarak nitelendirdi.
Ona göre yapay zekâ, insanların halihazırda kimlik doğrulamak için kullandığı pek çok yöntemi tamamen alt etmiş durumda. Özellikle yalnızca bir ses kaydı veya sesli imza ile yapılan doğrulamalar, günümüzün gelişmiş yapay zekâ araçları karşısında geçerliliğini yitirdi. Nitekim ileri düzey ses klonlama teknolojileri sayesinde kötü niyetli aktörler herhangi bir kişinin sesini gerçeğinden ayırt edilemeyecek bir biçimde taklit edebiliyor. Bu durum, telefon bankacılığı gibi alanlarda müşterilerin kimliğini doğrulamak için kullanılan geleneksel yöntemlerin kolaylıkla kandırılabileceği anlamına geliyor.
OpenAI CEO’su Sam Altman, Washington’daki Federal Reserve konferansında yapay zekânın finans sektörü üzerindeki etkilerini tartışırken görülüyor. Altman, panelde bankacılık otoritelerine sesli kimlik doğrulama teknolojilerinin yapay zekâ karşısında nasıl etkisiz kalabildiğini çarpıcı örneklerle anlattı. Konuşma, finans dünyasının üst düzey isimlerine yapay zekânın potansiyel tehlikelerini doğrudan aktarması açısından önemli bir fırsat oldu.
Altman’ın konuşmasında verdiği çarpıcı örneklerden biri, bazı bankalarda müşterinin ses izi ile yapılan doğrulamaydı. Bu yöntemde müşterinin telefonda belirli bir ifadeyi söylemesi, hesabına erişim sağlamak için yeterli görülebiliyor. Oysa yapay zekâ ile üretilmiş sahte sesler, bir kişinin ses izini neredeyse kusursuz biçimde kopyalayabiliyor. Altman, halen bu tür yöntemlere güvenen finansal kurumların acilen yeni önlemler alması gerektiğini dile getiriyor. Federal Reserve Başkan Yardımcısı Michelle Bowman da Altman’ın endişelerine katılarak, ses taklidi yoluyla kimlik doğrulamanın yarattığı riskleri azaltmak üzere teknoloji şirketleriyle iş birliği yapılabileceğini ifade etti. Bu yüksek seviyeli diyalog, finans sektörünün yapay zekânın gölgesinde şekillenen yeni risklere karşı hazırlık yapma zorunluluğunu gözler önüne seriyor.
Ses ve Görüntü Taklitleriyle Yeni Nesil Dolandırıcılık
Yapay zekâ tabanlı dolandırıcılık girişimleri, son dönemde yalnızca finans kuruluşlarının değil güvenlik birimlerinin de radarında. Amerika Birleşik Devletleri Federal Soruşturma Bürosu (FBI) geçen yıl yaptığı bir açıklamada, yapay zekâ ile oluşturulan sahte ses ve görüntülerin dolandırıcılıkta kullanılabileceği konusunda halkı uyarmıştı.
Özellikle çocukların sesleri taklit edilerek ailelerin kandırıldığı çok sayıda vakanın ortaya çıkması, bu teknolojinin ne denli kötüye kullanılabileceğini acı bir biçimde gösterdi. Dolandırıcılar, bir aile bireyinin gerçekçi bir ses kopyasını kullanarak telefonda acil durum senaryoları uydurup para talep edebiliyor; karşı taraf ise seste tanıdık birini duyduğunu sanarak tuzağa düşebiliyor.
Sam Altman, yapay zekânın yalnızca finansal dolandırıcılık değil, toplumsal güvenlik açısından da büyük bir tehdit oluşturabileceğine dikkat çekti. “Gelecekte sesli dolandırıcılıkların yerini birebir gerçeğe benzeyen videolar alacak. Henüz buna hazır değiliz,” diye uyardı Altman. Bir başka deyişle, dolandırıcılar yakın gelecekte yapay zekâ ile oluşturulmuş sahte videolar kullanarak sanki karşımızda gerçek bir kişi varmış gibi bizi aldatmaya çalışacaklar.
Üstelik bu tür teknikler yalnızca banka müşterilerini hedef almakla kalmayıp, yanlış bilgi yaymak veya kurumları itibarsızlaştırmak gibi amaçlarla da kullanılabilir. Güvenlik uzmanları, birkaç yıl öncesine dek bilim kurgu senaryosu olarak görülen bu risklerin artık son derece gerçek olduğunu ve kurumların yanı sıra bireylerin de hazırlıklı olması gerektiğini belirtiyor.
Yapay zekânın kötü amaçlarla kullanımının bir diğer boyutu da siber dolandırıcılık yöntemlerinde ortaya çıkıyor. Sadece telefon veya video değil, e-posta ve yazışma gibi iletişim kanallarında da yapay zekâ destekli sahtekârlıklar hızla artıyor. 2025 yılındaki RSA Siber Güvenlik Konferansı’nda uzmanlar, yapay zekânın siber saldırıların hızını ve etkisini eşi görülmemiş ölçüde artırdığını vurguladı. Örneğin gelişmiş yapay zekâ araçları sayesinde son derece inandırıcı oltalama (phishing) e-postaları ve gerçeğinden ayırt edilemeyen kopya web siteleri otomatik olarak üretilebiliyor. McKinsey tarafından Mayıs 2025’te yayınlanan bir analizde, yapay zekâ kullanan kötü niyetli aktörlerin kişiye özel ve gerçekçi saldırı yöntemleri geliştirebildiği, bu sayede geleneksel güvenlik mekanizmalarını atlatabildiği ifade ediliyor. Bu da yapay zekâ çağında dolandırıcılık girişimlerinin sadece sayıca değil, nitelik olarak da çok daha tehlikeli hale geldiğini ortaya koyuyor.
Finans Sektörü Yeni Önlemler Peşinde
Altman’ın uyarıları ve artan dolandırıcılık vakaları, finans sektöründe güvenlik protokollerinin yeniden gözden geçirilmesi gerektiğine işaret ediyor. Özellikle müşteri kimliğini doğrulama süreçlerinde eski yöntemlere bel bağlamak artık sürdürülebilir değil. Birçok uzman, ses veya görüntü doğrulamasına dayalı tek faktörlü güvenlik adımlarının yerini çok faktörlü kimlik doğrulama ve gelişmiş biyometrik önlemler gibi daha sağlam yöntemlere bırakacağını öngörüyor. Altman’ın altını çizdiği riskler, Beyaz Saray’ın da gündemine girmiş durumda. ABD yönetimi, yakında yayımlamayı planladığı kapsamlı bir Yapay Zekâ Eylem Planı ile bu tür tehditlerin önüne geçmeyi hedefliyor. Sesli doğrulama yöntemlerinin güvenilirliğini yitirmesi ve her tür dijital içeriğin gerçekmişçesine üretilebilmesi, düzenleyicileri de proaktif adımlar atmaya zorluyor. Önümüzdeki dönemde bankaların ve diğer kurumların, yapay zekâ kaynaklı risklere karşı daha sıkı denetimler ve standartlar geliştirmesi bekleniyor.
Özel sektör tarafında da bu alanda farkındalık artmaya başladı. OpenAI, 2026 yılının başlarında Washington DC’de yeni bir ofis açmaya hazırlanıyor. Bu merkezde düzenli bilgilendirme toplantıları yapmayı, teknoloji gösterimleri gerçekleştirmeyi ve yapay zekâ odaklı eğitim programları sunmayı planlıyor. Sam Altman, yapay zekâ konusunda karar alıcılarda bilinç oluşturmak ve olası riskleri doğrudan aktarabilmek amacıyla bu tür adımlara öncülük ediyor. Finans kuruluşlarıyla yapılacak iş birlikleri neticesinde, yapay zekâ destekli daha güvenli bir dijital finans altyapısı oluşturmak mümkün olabilir. Örneğin bankalar, sesle doğrulama yerine donanım tabanlı ek güvenlik katmanlarına, gelişmiş yüz veya iris tanıma sistemlerine ya da kullanıcı davranışlarını izleyen yapay zekâ destekli anomali tespit çözümlerine yönelebilir. Amaç, dolandırıcılar yeni teknikler geliştirse bile müşterilerin varlıklarını ve verilerini koruyacak, onların daima bir adım önünde olacak güvenlik mekanizmaları kurmak.
Ortaya çıkan bu tablo, yapay zekâ tabanlı dolandırıcılık, sesli kimlik doğrulama, sahte ses ve video taklitleri, dijital dolandırıcılık yöntemleri, finansal güvenlik tehditleri, yapay zekâ risk yönetimi, AI agent’lar ve derin sahte (deepfake) videolar gibi kavramlar etrafında güçlü bir arama motoru görünürlüğü sunuyor. Hem finans sektörü hem de bireyler için yapay zekâ destekli güvenlik önlemleri ve farkındalık çalışmaları, dijital çağda kritik bir öncelik haline geliyor. Bu trendler, geleceğin siber güvenlik dinamiklerini şekillendirecek önemli etkenler olarak öne çıkıyor.
Yapay zekâ çağının getirdiği kolaylıklar kadar risklerin de büyük olduğunu Altman’ın uyarıları net biçimde gösteriyor. Teknoloji dünyasını yakından izleyen bir gazeteci olarak, inovasyon rüzgârına kapılıp güvende olduğumuzu varsaymanın tehlikeli olabileceğini düşünüyorum. Yakın gelecekte karşılaşabileceğimiz dolandırıcılık senaryoları, yalnızca teknoloji şirketlerinin değil hepimizin tetikte olmasını gerektiriyor. Bu nedenle yapay zekâ alanındaki gelişmeleri desteklerken, bir yandan da sorumlu inovasyon anlayışını benimsemeli ve güvenlik boyutunu asla göz ardı etmemeliyiz.


