Workinlot

Elektriğin Amerika'da 50 senede eriştiği kullanım oranına, ChatGPT sadece 2 ayda erişti.

Yapay zekanın (A.I.) yayılım hızı yanında, yarattığı değer ve riskleri yönetmekte henüz emekleme aşamasındayız.

Geniş kitlelere temas eden kurumların, yapay zeka çözümlerini yönetmekte bireysel kullanıcılardan daha kritik bir sorumluluğu var.

Görselde, Osman Hamdi Bey'in " Kaplumbağa Terbiyecisi" eserinden esinlendik.

A.I. terbiyecileri, yapay zeka asistanlarını eğiten ve yöneten çalışanları anlatıyor. Şirketlerin bu yeni iş tanımına, bugünden ihtiyaç duyduğu gösteren somut sebepleri inceledik.

Örnek ve önerilerle (felaket tellallığı yapmadan) yapay zekanın olası riskleri, karar destek prensibi ve A.I. terbiyecileri ile yönetim.

1. Bölüm - Riskler ve Nedenler

Yapay zeka araçları, insan için külfetli ve yaratıcılık içermeyen birçok işi, makine öğrenmesi ve algortimalarla kolaylaştırıyor.

Yarattığı verimlilik sayesinde iş hayatının hiç değişmez denen dinamiklerini alışılmadık bir hızla dönüştürecek güce sahip.

Potansiyel gücünden dolayı, doğru yönetimle dengelenmesi gerekiyor.

Bugün görmeye alıştığımız genel A.I. çözümleri, algoritma varsayımlarının başarısı ile orantılı analiz, tahmin ve otomasyon başarısı elde edebiliyor. Bir sonraki seviye olan yaratıcı yapay zeka (GENAI), genel AI'dan farklı olarak algortima varsayımları üzerine hayaller kuruyor ve denetlenmediğinde daha da büyük gaflar yapabiliyor. (The biggest generative AI blunders of 2023)

 A.I.'ın karar verme süreçlerinde, insan yönetimi olmadan ilk günden söz sahibi olması, bir bilim kurgu filmini andırıyordu.

Aşağıda örnekler yapay zekanın insandan bağımsız karar verici olduğu noktalarda yaratabileceği riskleri, farklı perspektiflerden gösteriyor.

Müşteri uyumsuzlukları 

Son teknoloji olsa bile, insan için değer yaratmayan çözümler kullanılmıyor.

Yapay zeka çözümü geliştirirken insani ihtiyaca uygunluğu değerlendirmemek finansal kayıplara; bazen de marka itibarının zarar görmesine neden olabiliyor.

Amazon'un 3 milyar $ dan fazla yatırım yaparak test ettiği insanız perakende GO, gelişmiş yapay zeka çözümünün karar noktalarında çok fazla insana ihtiyaç duyduğunu ortaya çıkardı. (So, Amazon’s ‘AI-powered’ cashier-free shops use a lot of … humans. Here’s why that shouldn’t surprise you)  Her ne kadar teknolojinin yetersiz kaldığı anlatılsa da, sorunun yetersiz tanımlandığını düşünüyoruz. Insanlar  alışverişte zaman kaybetmek istemiyor. Ancak, satın aldığı ürün ve cebinden çıkan para ile ilgili kontrolü tamamen yapay zekaya devretmeyi sakıncalı buluyor. 

Son teknoloji sürücüsüz arabaları, sosyal medyada merakla takip ediyoruz. Ancak detaya indiğimizde, otonom arabaların bireysel kullanım beklentileri azalıyor. (Partially autonomous cars forecast to comprise 10% of new vehicle sales by 2030) Otonom kullanım örnekleri çoğalsa da, insanlar arabanın tüm kontrolünü yapay zekaya devretmeye hazır değil. Otonom sürüşün, ticari alanda daha hızlı gelişmesi mümkün. Bireysel kullanıcı ise, araba kullanmaktaki kontrol hissinden hala keyif alıyor. 

Bir genel yanılgı da, yapay zekanın insan davranışlarını çok doğru tahmin edebildiği konusu. İnsan, çoğu zaman duygusal veya sebebini önceden anlayamayacağımız, irrasyonel kararlar verir. (Dan Ariely on 10 Irrational Human Behaviors) Makinadan farklı olduğumuz bu insansı özellik, yapay zekanın geleceği öngörmek yerine algoritmik varsayımlarla hareket ettiğini anlatıyor. 

Zillow vakası, varsayımların gerçeklerle uyumsuzluğunun yaratabileceği sonuçları anlamak için gayrimenkul sektörünüden bir örnek.

Zillow, bir gayrimenkul teknolojisi şirketi. Ev fiyatlarını tahmin eden A.I. algoritmasındaki yüksek hata oranı nedeniyle, evleri piyasa değerinden yüksek fiyatlarla satın alarak 2021’in üçüncü çeyrekte 304 milyon $ kayıp yaşadı.(Zillow’s home-buying debacle shows how hard it is to use AI to value real estate) Gayrimenkul teknolojisi stratejisti Mike DelPrete, Zillow'un yaşadığı sorunu özetliyor. "Gayrimenkul fiyatlamasını hata payı olmadan tahminlemek neredeyse imkansız. Çünkü konut satın almada mantıkla açıklaması zor, her insana göre değişen his ve davranışlar belirleyici oluyor."

Finansal sorunlar, özellikle büyük bütçeli şirketler için bir noktaya kadar tolere edilebilir. Ancak tüketiciyi yanıltarak şirket itibarına zarar veren çözümler, daha da riskli.

Bir Chevrolet bayisine ait yapay zeka chatbot, müşteri görüşmesi sırasında 58.000 $ değerindeki Chevrolet Tahoe'yu 1 dolara satmayı kabul etti ve şirketi bağlayabilecek güvenceler verdi.(Chatbot Case Study: Purchasing a Chevrolet Tahoe for $1) Müşteri ilişkilerini geliştirmek için tasarlanan bir chatbot, yetki ve sınırları doğru yönetilmediğinde, şirketin imajına zarar verebilecek yükümlülükler yaratabiliyor. Bu olaydan sonra kimse chatbot'dan 1 $ a araba almadı ama şirket itibar kaybı ve eleştirilerin odak noktası oldu.

Karar verme sorumluluğunun insanlarca yönetilmediğinde, yapay zekanın neden olduğu riskli örneklerin sayısı artıyor. Google'ın pizzaya kimyasal yapıştırıcı konmasını öneren yapay zeka asistanları, Air Canada'dan bilet almaya çalışan bir yolcunun yüksek fiyatlara yönlendiren chatbot'ları, New York belediyesinin kanun dışı öneriler sunan chatbot'u ait oldukları kurumların başını epey ağrıttı.

Çalışanlarla uyumsuzluk 

Yapay zeka çözümleriyle ortak çalışma yeni bir sorumluluk alanı ve yaratıcılık, doğal zeka gibi yeri doldurulamaz insana has yetkinliklerle uyumlu çözümler geliştirebilmeyi gerektiriyor. 

En sık gözlenen uyumsuzluk nedenleri, yapay zekanın çalışanların işini elinden alacağını çekinceleri veya dijital çalışmaktan doğan veri gizliliği endişeleri. Bu endişeler, kullanımdan verim almayı engelliyor. BambooHRCulture Amp ve Better Up başarılı iş gücü yapay zeka çözümleri arasında. Startup'lar, çalışanlarla uyum ve haklı endişelerini yönetebilmek için,  "Sizin yerinize geçmeye gelmedik" "Güvenebileceğiniz saydamlıkta, size destekler geliştirmek istiyoruz" mesajlarına odaklanıyor.

Bir kısım çalışan uyumu ararken, bunu tamamen gözardı eden şirketler de var. Yapay zeka çözümleri "uzaktan çalışan mouse hareket kayıtlarını" denetlemek için de kullanılabiliyor. Baskıcı kullanım, işe bağlılık ve performansını olumsuz etkiliyor. Çalışanlar şimdiden baskıcı ve etik dışı yönetimi bypass etmenin yollarını arıyor. (9 Easy Ways to Fool Employee Monitoring Software)

Bir kullanım alanı da, işe alım süreçleri. Doğru adayı geniş bir başvuru havuzu içerisinden yapay zeka yardımıyla belirlerken, yanlış yönetim ne tür riskler yaratabilir?

iTutor, geliştirdiği yapay zeka işe alımı kolaylaştırmaya çalışırken, algoritmasıyla ayrımcılığa neden oldu. ABD Eşit İş İmkanları Komisyonu (EEOC), belli yaş üzeri kadın ve erkek başvuru sahiplerini otomatik olarak reddeden işe alım algoritmasını tespit ederek 365.000 $ ceza uyguladı. (EEOC Secures First Workplace Artificial Intelligence Settlement)

Yapay zeka ile ayrımcı veya baskıcı çözümler geliştirmenin olumsuz etkileri göz ardı edilebiliyor.

Bu tür hatalı stratejilerin sürdürülebilir olamayacağını gösteren önemli bir neden var.

Yapay zeka yönetimi ve A.I. terbiyecileri geliştirmeye önem veren iş kültürü, müşteri ve çalışanları için yarattığı güvenle riski düşürerek rekabet avantajı yaratıyor.

2. Bölüm - Karar Destek Prensibi

Zeka insana özgü bir kavram. Insanın yorumlama ve karar alma yetkinliğini, makine tamamen üstlenemez. Yapay zeka çözümü ne kadar sofistike olursa olsun, önceden belirlenmiş algoritma bazlı tahminlere dayandığı için hata payına sahip ve bunu gözardı etmek farklı sorunlara yol açabilir. (Knowledge at Wharton  - What Impact Will AI Have on Organizations? – Bob Meyer & Roger Gu | AI in Focus Series)

A.I.'ın karar almayı destekleyecek şekilde konumlanmasıysa, başarılı sonuçlar üretebiliyor.

Amazon GO otonom market alışverişi başarısız olabilir. Ancak başarısız olan yapay zeka değil, nasıl kullanıldığı. İnsanın karar almasını destekleyen fiziksel mağazalardaki fiziksel mağazalardaki jet kasalar veya çevrimiçi market alışverişi alternatifleri, insanların karar alma kontrolunu elinden almadan zaman kazanımı yaratarak orta yolu bulabiliyor.

Bir başka bilindik örnek, otonom arabalar. Bugün bireyler için gerçek bir ihtiyaç olmayabilir. İnsanların uzaktan yönetebildiği otonom hareket edebilen nesneler, drone ve otonom ticari filo çözümleri ise gerçek bir talep.(Workinlot - Global Entrepreneurship Congress 2018 istanbul - Future of mobility workshop)

Gayrimenkul fiyatlarının değerine yapay zekanın karar vermesi mantıklı değil ama insanın fiyatlama yapabilmesini destekleyen insan üstü veri tarama yetkinliklerini kullanmak mümkün. 

Chatbotların, müşterileri kritik konularda kararlarla yönlendirmesi sorunlar açabiliyor. Müşteriyi anlama, basit kararlarda kural bazlı yönlendirme ve kritik kararlarda yöneticilerine yönlendirme, başarıyla kullanılan bir orta yol.

Bulguyu destekleyen son örnek kendi alanımızdan. Büyük danışmanlık firmaları, yapay zekanın insana muadil karar alma yetkinliğini sorgulayanlar arasında.

Harvard Business School ve BCG tarafından yapılan araştırma, GPT-4 AI kullanan danışmanların bir dizi görevde daha üretken ve verimli olabileceğini gösterdi. 

Araştırmaya göre yapay zeka asistanı kullanan danışmanlar %12 daha fazla görevi %25 daha hızlı yapabildiler. Yeni işe giren danışmanların performansları %43 oranında artarken, deneyimli danışmanlarda da %17'lik bir iyileşme görüldü. (Harvard And BCG Unveil The Double-Edged Sword Of AI In The Workplace)  Bu kazanımlarına rağmen, özellikle yaratıcı yapay zeka GenAI 'ın veriye erişimi olmasada varsayımlardan yola çıkarak verdiği hayali yanıtlar, danışmanların hata oranlarında ciddi bir artışa neden oldu. A.I. kullanan danışmanların hayali yanıtlardan dolayı yanlışlık olasılığı % 19 daha fazla oldu.

Araştırmanın sonucu, A.I. basit ama sayıca fazla karar noktasında doğru eğitildiğinde oldukça değerli.

Ancak karar almanın kritik olduğu noktalarda tek başına çok riskli. Kritik kararlarda insanın karmaşık ve bazen de rasyonelle açıklanamayan değerlendirme kapasitesi, rakipsiz.

Karar destek prensibi, daha sorumlu bir yönetim ve gerçek değerlere odaklanmayı sağlıyor.

3. Bölüm - A.I. Terbiyecileri ile Yönetim

Yapay zeka asistanlarını yönetmek, bu çözümleri kullanan iş dünyası için kritik bir görev. A.I. terbiyecisi bu görevle sorumlu disiplinler arası iş gücünü tarif ediyor.

Şirketler A.I. terbiyesi için kurumsal görev ve süreçler yaratarak, yönetimsizlikden doğan uyumsuzlukları önleyebilir.

Yapay zeka ile çalışırken, gelecekte ortaya çıkabilecek tüm riskleri öngörebilmek zor. Olası risklerin yönetiminde, farklı perspektif ve uzmanlıklara ihtiyaç var.

Yukarıdaki görsel, yapay zeka yönetiminin başlıca değer ve görevlerini listeliyor. Çalışan Uygunluğu, Teknik ve Veri Uygunluğu, Etik Uygunluk, Tüketici Uygunluğu, Siber Güvenlik, Finansal Uygunluk ve Hukuki Uygunluk.

Bu görevler ve değerler için, farklı uzmanlıklara sahip üyelerden oluşan bir yönetim hiyerarşisi ve süreç tasarımı gerekiyor. 

Yukarıdaki süreç taslağını, yapay zeka yönetim görevlerini biraz daha somut yorumlayabilmek için geliştirdik.  

  1. Kullanım alanı belirleme: Yapay zeka ile çözülecek problemleri listelemek, önceliklendirmek, çıktı beklentileri ve riskleri dokümente etmek
  2. Paydaş belirleme: Özgün bir algoritma veya hazır bir algoritma kullanımında iş birliği yapılacak kurum içi ve dışı paydaşların belirlenmesi, geliştirme süreç ve fikri mülkiyet haklarına yönelik beklentilerin belirlenmesi
  3. Veri: Çözüm geliştirmek için gerekli verinin tanımlanması, model geliştirme için hazırlanması ve dokümentasyon
  4. Test ve takip: Son kullanıma geçmeden önce PoC testlerinin yapılması, risk bulgularının adreslenmesi ve bir sonraki aşamada takip edilecek başarı metrikleri geliştirmek
  5. Kullanım: Son kullanıcı deneyiminin denetlenebilir ve raporlanabilir olması, ölçeklenme fırsatlarının değerlendirilmesi

Bu iki görselin taslak olduğunu tekrar hatırlatmak istiyoruz. Yapay zeka yönetim hiyerarşisi ve süreçleri, kuruma göre farklılıklar gösterecektir.

Ortak gerçek, kurumsal yapay zeka kullanımının giderek artan bir trende sahip olduğu.

MIT Sloan School of Management'in bir araştırmasına göre bugün, 5.000'den fazla çalışanı olan şirketlerin %50'sinden fazlası, 10.000'den fazla çalışanı olan şirketlerin ise %60'ından fazlası yapay zeka kullanıyor. (The who, what, and where of AI adoption in America)

Yapay zekayı sadece teknoloji uzmanlarının yöneteceğini düşünmek ve insan odaklı bir yönetim geliştirmemek hata olurdu.

Örnekler de bunu gösteriyor.

Yapay zeka kullanımı her iş birimini ilgilendirdiği için, A.I. yönetim süreçlerinde teknik olmayan uzmanlıkların yer alması kaçınılmaz.

İş hayatı artık teknoloji tüketmek kadar üretebilmeyi de önemli kılıyor. Yapay zeka, teknoloji üretimini teknik olmayan uzmanlar için de kolaylaştıran bir araç.

Tabii ki kontrolsüz bir güç olmadığı sürece. Buna dikkat çekebilmek için de "A.I. terbiyecileri" dedik.

Workinlot'da geliştirdiğimiz deneyimle, şirketlerin benzer yenilikler üretmesine ve teknoloji iş birliği fırsatlarını yönetebilmesine yardımcı oluyoruz.

Tanışmak ve bağlantı kurmak için bize ulaşabilirsiniz.

 

WORKINLOT HABER BÜLTENİ

Yeni içerikler, çağrılar ve gelişmelerle ilgili bilgilendirilmek için haber bültenimize abone olabilirsiniz