Yapay zeka kadınların sağlığını küçümsüyor

İngiltere’deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, kadınların fiziksel ve zihinsel sağlık sorunlarını önemsizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.

Araştırma, Google’ın yapay zeka aracı “Gemma” kullanılarak aynı vaka notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, “yapamayan” ve “karmaşık” gibi ifadelerin erkeklerin tanımlarında kadınlara göre önemli ölçüde daha sık kullanıldığını ortaya koydu.

The Guardian gazetesinin aktardığına göre Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, kadınların benzer bakım ihtiyaçlarının daha çok göz ardı edildiğini veya daha az ciddi terimlerle tanımlandığını da tespit etti.

BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR

Raporu yazan baş yazar ve LSE’nin Bakım Politikası ve Değerlendirme Merkezi’nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.

“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve endişe verici olan, farklı modellerdeki önyargı ölçümleri arasında çok anlamlı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: “Özellikle Google’ın modeli, kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla önemsizleştiriyor.Ve aldığınız bakım miktarı algılanan ihtiyaç temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.”

Yerel yönetimler, aşırı yük altında çalışan sosyal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Ancak hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne gibi etkileri olduğu konusunda çok az bilgi var.

ARAŞTIRMA NASIL YAPILDI?

LSE araştırması, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notlarını kullandı. Bu notlar, sadece cinsiyetleri değiştirilerek farklı büyük dil modellerine (LLM) birden çok kez girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve kadın vakalarını nasıl farklı şekilde ele aldığını görmek için 29 bin 616 özet çiftini analiz etti.

Bir örnekte, Gemma modeli bir dizi vaka notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı vaka notları, cinsiyetleri değiştirilerek aynı modele girildiğinde, vaka şu şekilde özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsızdır ve kişisel bakımını sürdürebilmektedir.”

Başka bir örnekte, vaka özeti Bay Smith’in “topluma erişemediğini”, ancak Bayan Smith’in “günlük aktivitelerini yönetebildiğini” belirtti.
Test edilen AI modelleri arasında, Google’ın Gemma modeli diğerlerine göre daha belirgin cinsiyet temelli eşitsizlikler yarattı. Araştırmaya göre, Meta’nın Llama 3 modeli cinsiyete göre farklı dil kullanmadı.

“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI”

Rickman, bu araçların “halihazırda kamu sektöründe kullanıldığını, ancak bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi.
Rickman, “Araştırmam bir modeldeki sorunları ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetime tabi tutulması çok önemli” dedi.
Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun süreli bakımda kullanılan LLM’lerde önyargının ölçülmesini zorunlu kılmaları” gerektiği sonucuna varıyor.

Makine öğrenimi tekniklerinin insan dilindeki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun süredir endişeler var.

133’TEN 44’ÜNDE CİNSİYET ÖNYARGISI VAR

ABD’de yapılan bir araştırmada, farklı sektörlerdeki 133 yapay zeka sistemi analiz edildi ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı, yüzde 25’inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.

Google’a göre, şirketin ekipleri raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü nesil olan ve daha iyi performans göstermesi beklenen Gemma modelinin ilk neslini test ettiler, ancak modelin tıbbi amaçlarla kullanılması gerektiği hiçbir zaman belirtilmedi.

Related Posts

Açıklama geldi: Sony Xperia telefonların kaderinde ne var?

Sony CFO’su Lin Tao, akıllı telefon işini “çok önemli” olarak tanımlamaya devam ediyor. Ama satışların durdurulması, modellerin azaltılması ve pazar payındaki düşüş, bu sözlerin ardındaki stratejiyi sorgulatıyor.

Yakında yollarda göreceğimiz elektrikli otomobil modelleri tanıtıldı

Elektrikli araçlar, otomotiv endüstrisinde dönüşüm yaratmaya devam ediyor. 2025 sonrası dönemde, yeni nesil elektrikli otomobiller ve kamyonetler, gelişmiş teknolojiler, sürdürülebilirlik ve performans odaklı yeniliklerle karşımıza çıkacak. İşte bu alandaki öne çıkan gelişmeler..

Dijital diriliş: Yapay zeka ile ölüler geri dönüyor

Yapay zeka ile oluşturulan ve hayatını kaybedenleri geri getiren “ölü botlar” giderek yaygınlaşıyor. Uzmanlar, bu teknolojinin yas sürecini değiştirebileceğini belirtiyor.

Sağlıkta kuantum sıçraması! Bilim dünyası dönüşüyor

Kuantum bilgisayarları, sağlık sektöründe çığır açan yeniliklerle bilim dünyasını yeniden şekillendirdi. Klasik bilgisayarların çözmekte zorlandığı karmaşık problemleri ışık hızında çözebilen bu teknoloji, genetik analizlerden ilaç geliştirmeye …

Google Map kullanıcılarına kötü haber: Sürücülerin çok sevdiği özellik, Android’den kaldırıldı!

Google, Haritalar uygulamasında kafa karıştıran bir değişikliğe imza attı.

Hava durumu değişiklikleri, migreni neden tetikliyor?

Hava durumu tahminleri migren hastaları için sadece günlük bir bilgi değil, aynı zamanda olası bir atağın habercisi olabilir. Uzmanlar, özellikle barometrik basınç ve sıcaklık dalgalanmalarının, migreni tetikleyen mekanizmaları nasıl devreye soktuğunu inceliyor.