Elektriğin Amerika'da 50 senede eriştiği kullanım oranına, ChatGPT sadece 2 ayda erişti.
Yapay zekanın yarattığı değer ve riskleri yönetebilme yetkinliğimizse henüz çok geriden geliyor.
Yönetimsiz, kontrolsüz her güç gibi, bu ateşin de yangına dönüşme riski var. Zaman zaman eleştirilse de, yönetim uzmanlığı kurumsal kültürün mihenk taşı.
Üretimden tüketime geniş kitlelere temas eden kurumlar, A.I. kullanımında bireysel kullanıcılardan farklı bir sorumluluğa sahip.
Yeniliğe kapıları tamamen kapatmak veya her cezbedici çözümü kullanmak, sorumlu bir yönetim şekli değil.
Yönetebilmek için A.I.'ın insan üstü değil insan için çok değerli bir araç olduğunu kabul etmekle başlayabiliriz. A.I. 'ı şöyle anlatıyoruz: "İnsan bir kez daha çok etkili, hızlı ve yönetmekle sorumlu olduğu bir araç keşfetti."
Görselde, Osman Hamdi Bey'in " Kaplumbağa Terbiyecisi" eserinden esinlendik. A.I. terbiyesi, yapay zeka asistanlarını yönetmeyi anlatıyor.
Şirketlerin bu yeni iş tanımına, bugün ihtiyaç duyduğu gösteren somut sebepler var.
Örnek ve önerilerle felaket tellallığı yapmadan yapay zekanın olası riskleri, karar destek prensibi ve son olarak A.I. terbiyecileri ve yönetimi:
Yapay zeka araçları, insan için külfetli ve yaratıcılık içermeyen işleri üstlenerek, teknik olmayan becerileri desteklediği zaman değerli.
Bu araçlar iş hayatının hiç değişmez dediğimiz dinamiklerini, alışılmadık bir hızla değiştirebilecek güce sahip.
Yani özetleçok ciddi bir güç olduğunu anladığımız için, sorumluluk alabilen bir yönetimle dengelenmesi gerektiğinin farkına varıyoruz.
A.I.'ın karar verme süreçlerinde, hiçbir yapısal yönetim olmadan ilk günden söz sahibi olması, bir bilim kurgu filmini andırıyordu.
Aşağıda örnekler yapay zekanın insandan bağımsız karar verici olduğu noktalarda yaratabileceği riskleri, farklı perspektiflerden göstermek için derlendi.
Müşteri uyumsuzlukları
Son teknoloji olsa bile, insana değer yaratmayan veya riskli olduğuna inanılan çözümler kullanılmıyor.
Yapay zeka çözümü geliştirirken insani ihtiyaca uygunluğu değerlendirmemek finansal kayıplara; bazen de marka itibarının zarar görmesine neden olabiliyor.
Amazon'un 3 milyar $ dan fazla yatırım yaparak test ettiği insanız perakende GO, gelişmiş yapay zeka çözümünün karar noktalarında çok fazla insana ihtiyaç duyduğunu ortaya çıkardı. (So, Amazon’s ‘AI-powered’ cashier-free shops use a lot of … humans. Here’s why that shouldn’t surprise you) Her ne kadar teknolojinin yetersiz kaldığı anlatılsa da, sorunun yetersiz tanımlandığını düşünüyoruz. Insanlar alışverişte zaman kaybetmek istemiyor. Ancak, satın aldığı ürün ve cebinden çıkan para ile ilgili kontrolü tamamen yapay zekaya devretmeyi sakıncalı buluyor.
Son teknoloji sürücüsüz arabaları, sosyal medyada merakla takip ediyoruz. Ancak detaya indiğimizde, otonom arabaların bireysel kullanım beklentileri azalıyor. (Partially autonomous cars forecast to comprise 10% of new vehicle sales by 2030) Otonom kullanım örnekleri çoğalsa da, insanlar arabanın tüm kontrolünü yapay zekaya devretmeye hazır değil. Otonom sürüşün, ticari alanda daha hızlı gelişmesi mümkün. Bireysel kullanıcı ise, araba kullanmaktaki kontrol hissinden hala keyif alıyor.
Bir genel yanılgı da, yapay zekanın insan davranışlarını çok doğru tahmin edebildiği konusu. İnsan, çoğu zaman duygusal veya sebebini önceden anlayamayacağımız, irrasyonel kararlar verir. (Dan Ariely on 10 Irrational Human Behaviors) Makinadan farklı olduğumuz bu insansı özellik, yapay zekanın geleceği öngörmek yerine algoritmik hayaller kurduğunu anlatıyor.
Hayallerin gerçeklerle uyumsuzluklar yarattığını gösteren bir örnek de gayrimenkul sektöründen.
Zillow, bir gayrimenkul teknolojisi şirketi. Ev fiyatlarını tahmin eden A.I. algoritmasındaki yüksek hata oranı nedeniyle, evleri piyasa değerinden yüksek fiyatlarla satın alarak 2021’in üçüncü çeyrekte 304 milyon $ kayıp yaşadı.(Zillow’s home-buying debacle shows how hard it is to use AI to value real estate) Gayrimenkul teknolojisi stratejisti Mike DelPrete, Zillow'un yaşadığı sorunu özetliyor. "Gayrimenkul fiyatlamasını hata payı olmadan tahminlemek neredeyse imkansız. Çünkü konut satın almada mantıkla açıklaması zor, her insana göre değişen his ve davranışlar belirleyici oluyor."
Finansal sorunlar, özellikle büyük bütçeli şirketler için bir noktaya kadar tolere edilebilir. Ancak tüketiciyi yanıltarak şirket itibarına zarar veren çözümler, daha da riskli.
Bir Chevrolet bayisine ait yapay zeka chatbot, müşteri görüşmesi sırasında 58.000 $ değerindeki Chevrolet Tahoe'yu 1 dolara satmayı kabul etti ve şirketi bağlayabilecek güvenceler verdi.(Chatbot Case Study: Purchasing a Chevrolet Tahoe for $1) Müşteri ilişkilerini geliştirmek için tasarlanan bir chatbot, yetki ve sınırları doğru yönetilmediğinde, şirketin imajına zarar verebilecek yükümlülükler yaratabiliyor. Bu olaydan sonra kimse chatbot'dan 1 $ a araba almadı ama şirket itibar kaybı ve eleştirilerin odak noktası oldu.
Karar verme sorumluluğunun insanlarca yönetilmediğinde, yapay zekanın neden olduğu riskli örneklerin sayısı artıyor. Google'ın pizzaya kimyasal yapıştırıcı konmasını öneren yapay zeka asistanları, Air Canada'dan bilet almaya çalışan bir yolcunun yüksek fiyatlara yönlendiren chatbot'ları, New York belediyesinin rüşvet verme gibi kanun dışı önerileri olan chatbot'u ait oldukları şirketlerin başını epey ağrıttı.
Çalışanlarla uyumsuzluk
Yapay zeka çözümleriyle ortak çalışma yeni bir sorumluluk alanı ve yaratıcılık, doğal zeka gibi yeri doldurulamaz insana has yetkinliklerle uyumlu çözümler geliştirebilmeyi gerektiriyor.
En sık gözlenen uyumsuzluk nedenleri, yapay zekanın çalışanların işini elinden alacağını çekinceleri veya dijital çalışmaktan doğan veri gizliliği endişeleri. Bu endişeler, kullanımdan verim almayı engelliyor. BambooHR, Culture Amp ve Better Up başarılı iş gücü yapay zeka çözümleri arasında. Startup'lar, çalışanlarla uyum ve haklı endişelerini yönetebilmek için, "Sizin yerinize geçmeye gelmedik" "Güvenebileceğiniz saydamlıkta, size destekler geliştirmek istiyoruz" mesajlarına odaklanıyor.
Bir kısım çalışan uyumu ararken, bunu tamamen gözardı eden şirketler de var. Yapay zeka çözümleri "uzaktan çalışan mouse hareket kayıtlarını" denetlemek için de kullanılabiliyor. Baskıcı kullanım, işe bağlılık ve performansını olumsuz etkiliyor. Çalışanlar şimdiden baskıcı ve etik dışı yönetimi bypass etmenin yollarını arıyor. (9 Easy Ways to Fool Employee Monitoring Software)
Bir kullanım alanı da, işe alım süreçleri. Doğru adayı geniş bir başvuru havuzu içerisinden yapay zeka yardımıyla belirlerken, yanlış yönetim ne tür riskler yaratabilir?
iTutor, geliştirdiği yapay zeka işe alımı kolaylaştırmaya çalışırken, algoritmasıyla ayrımcılığa neden oldu. ABD Eşit İş İmkanları Komisyonu (EEOC), belli yaş üzeri kadın ve erkek başvuru sahiplerini otomatik olarak reddeden işe alım algoritmasını tespit ederek 365.000 $ ceza uyguladı. (EEOC Secures First Workplace Artificial Intelligence Settlement)
Yapay zeka ile ayrımcı, baskıcı çözümler geliştirmek kısa dönemde kârlı gözükebilir.
A.I. terbiyecilerinin ve yönetim sorumluluğu alan kurumların olduğu dünyadaysa, gerçekci değil.
Zeka insana özgü bir kavram. Insanın yorumlama ve karar alma yetkinliğini, makine tamamen üstlenemez. Yapay zeka çözümü ne kadar sofistike olursa olsun, hata payına sahip ve bunu gözardı etmek farklı sorunlara yol açabilir. (Knowledge at Wharton - What Impact Will AI Have on Organizations? – Bob Meyer & Roger Gu | AI in Focus Series)
A.I.'ın karar almayı destekleyecek şekilde konumlanmasıysa, başarılı sonuçlar üretebiliyor.
Amazon GO otonom market alışverişi başarısız olabilir. Ancak başarısız olan yapay zeka değil, nasıl kullanıldığı. İnsanın karar almasını destekleyen fiziksel mağazalardaki fiziksel mağazalardaki jet kasalar veya çevrimiçi market alışverişi alternatifleri, insanların karar alma kontrolunu elinden almadan zaman kazanımı yaratarak orta yolu bulabiliyor.
Bir başka bilindik örnek, otonom arabalar. Bugün bireyler için gerçek bir ihtiyaç olmayabilir. İnsanların uzaktan yönetebildiği otonom hareket edebilen nesneler, drone ve otonom ticari filo çözümleri ise gerçek bir talep.(Workinlot - Global Entrepreneurship Congress 2018 istanbul - Future of mobility workshop)
Gayrimenkul fiyatlarının değerine yapay zekanın karar vermesi mantıklı değil ama insanın fiyatlama yapabilmesini destekleyen insan üstü veri tarama yetkinliklerini kullanmak mümkün.
Chatbotların, müşterileri kritik konularda kararlarla yönlendirmesi sorunlar açabiliyor. Müşteriyi anlama, basit kararlarda kural bazlı yönlendirme ve kritik kararlarda yöneticilerine yönlendirme, başarıyla kullanılan bir orta yol.
Bulguyu destekleyen son örnek kendi alanımızdan. Büyük danışmanlık firmaları, yapay zekanın insana muadil karar alma yetkinliğini sorgulayanlar arasında.
Harvard Business School ve BCG tarafından yapılan araştırma, GPT-4 AI kullanan danışmanların bir dizi görevde daha üretken ve verimli olabileceğini gösterdi.
Araştırmaya göre yapay zeka asistanı kullanan danışmanlar %12 daha fazla görevi %25 daha hızlı yapabildiler. Yeni işe giren danışmanların performansları %43 oranında artarken, deneyimli danışmanlarda da %17'lik bir iyileşme görüldü. (Harvard And BCG Unveil The Double-Edged Sword Of AI In The Workplace) Bu kazanımlarına rağmen, A.I. 'ın veriye erişimi olmadığı alanlarda verdiği hayali yanıtlar, danışmanların hata oranlarında ciddi bir artışa neden oldu. A.I. kullanan danışmanların hayali yanıtlardan dolayı yanlışlık olasılığı % 19 daha fazla oldu.
Araştırmanın sonucu, A.I. basit ama sayıca fazla karar noktasında doğru eğitildiğinde, yardımcı olabiliyor.
Ancak karar almanın kritik olduğu noktalarda tek başına çok riskli. Kritik kararlarda insanın karmaşık ve bazen de rasyonelle açıklanamayan değerlendirme kapasitesi, rakipsiz.
Karar destek prensibi, daha sorumlu bir yönetim ve gerçek değerlere odaklanmayı sağlıyor.
Yapay zeka asistanlarını yönetmek, bu çözümleri kullanan iş dünyası için kritik bir görev. A.I. terbiyecisi bu görevle sorumlu disiplinler arası iş gücünü tarif ediyor.
Şirketler A.I. terbiyesi için kurumsal görev ve süreçler yaratarak, yönetimsizlikden doğan uyumsuzlukları önleyebilir.
Yapay zeka ile çalışırken, gelecekte ortaya çıkabilecek tüm sorunları öngörebilmesi imkansız. Bundan dolayı yönetimde düzenli insan denetiminin (A.I. terbiyecileri) rolü, önemli olmaya devam edecek.
Yukarıdaki görsel, yapay zeka yönetiminin başlıca değer ve görevlerini listeliyor. Çalışan Uygunluğu, Teknik ve Veri Uygunluğu, Etik Uygunluk, Tüketici Uygunluğu, Siber Güvenlik, Finansal Uygunluk ve Hukuki Uygunluk.
Bu görevler ve değerler için, farklı uzmanlıklara sahip üyelerden oluşan bir yönetim hiyerarşisi ve süreç tasarımı gerekiyor.
Yukarıdaki süreç taslağını, yapay zeka yönetim görevlerini biraz daha somut yorumlayabilmek için geliştirdik.
Bu iki görselin taslak olduğunu tekrar hatırlatmak istiyoruz. Yapay zeka yönetim hiyerarşisi ve süreçleri, kuruma göre farklılıklar gösterecektir.
Ortak gerçek, kurumsal yapay zeka kullanımının giderek artan bir trende sahip olduğu.
MIT Sloan School of Management'in bir araştırmasına göre bugün, 5.000'den fazla çalışanı olan şirketlerin %50'sinden fazlası, 10.000'den fazla çalışanı olan şirketlerin ise %60'ından fazlası yapay zeka kullanıyor. (The who, what, and where of AI adoption in America)
Yapay zekayı sadece teknoloji uzmanlarının yöneteceğini düşünmek ve insan odaklı bir yönetim geliştirmemek hata olurdu. Örnekler de bunu gösteriyor.
Daha uyumlu sonuçlar için, farklı disiplinlerden uzmanları teknoloji yönetimine entegre edebilmek gerekli.
Eğer yapay zeka kullanımı her iş birimini ilgilendiriyorsa, farklı uzmanlıkların A.I. yönetim süreçlerinin parçası olması da kaçınılmaz.
Çağın koşulları iş hayatında teknoloji tüketmek kadar üretebilmeyi de önemli kılıyor ve yapay zeka teknoloji üretimini teknik olmayan uzmanlar için de kolaylaştıran bir araç.
Tabii ki kontrolsüz bir güç olmadığı sürece. Buna dikkat çekebilmek için de "A.I. terbiyecileri" dedik.
Workinlot'da geliştirdiğimiz deneyimle, şirketlerin benzer yenilikler üretmesine ve teknoloji iş birliği fırsatlarını yönetebilmesine yardımcı oluyoruz.
Tanışmak ve bağlantı kurmak için bize ulaşabilirsiniz.