YAPAY ZEKÂ VE ÇOCUK HAKLARI

 

Av. Fatmanur CAYGIN – Av. Can YAVUZ

  1.  Giriş

Yapay zekâ 1 ve teknoloji hızla gelişimleriyle hayatımıza birçok kolaylık ve yenilik sağlarken, bu gelişmeler insan haklarının korunmasını temin eden mevcut sistem ve mekanizmaların yeterliliğine ilişkin endişeleri ve etik sorgulamaları da beraberinde getirmektedir. Teknolojinin hızını yakalayamıyor olmanın verdiği kaygı ile Avrupa Birliği başta olmak üzere uluslararası aktörlerin yapay zekânın insan hakları ve demokrasi üzerindeki potansiyel zararlarını önlemek adına harekete geçtiği görülmektedir.

Birleşmiş Milletler Düşünce ve İfade Özgürlüğü Özel Raportörü’nün yapay zekânın insan hakları üzerindeki olası etkilerini değerlendirdiği raporu Ağustos 2018’de yayımlanmış,2 Avrupa Konseyi İnsan Hakları Komiseri yapay zekânın insan hakları üzerindeki olumsuz etkileri ve çözüm önerilerini konu edinen raporunu Mayıs 2019’da neşretmiştir.3 Avrupa Konseyi yapay zekânın ayrımcılık yasağı, biyoetik, çocuk hakları, kültür, veri güvenliği, eğitim, demokrasi, adalet, cinsiyet eşitliği ve yolsuzlukla mücadele üzerindeki olası tesiri üzerine araştırmalar yürütmeye başlamış,4 ayrıca Eylül 2019’da Avrupa Konseyi kapsamında Yapay Zekâ ve İnsan Hakları Uzmanlar Komitesi kurulmuştur.5

Konuyu çocuk hakları bağlamında ele alan Avrupa Konseyi, çocuk hakları için belirlediği 2016-2021 stratejisi kapsamında internet ve çocuk hakları başlığına yer vererek çocukların kaçınılmaz bir şekilde yapay zekâ etkisi altında kaldığından dijital dünyada çocuk haklarının korunması hakkında bir rehber hazırlamaya başlamıştır.6 Dünya Ekonomik Forumu 2019’da San Francisco’da gerçekleşen çalıştayında Çocuklar ve Yapay Zekâ İlişkisi için Global Standartlar başlıklı raporunu yayımlamıştır.7

1        Yapay zekâ bu çalışmada, çözümünde zekâ gerektiren amaçları yerine getirebilen maki- nalar şeklinde, kapsayıcı bir terim olarak kullanılmıştır. (Mijatović, 2019, s. 5)

2       (Kaye, 2018)

3       (Mijatović, 2019)

t4tps:h//www.coe.int/en/web/artificial-intelligence/work-in-progress, erişim 1.10.2019

 

Anılan bu uluslararası çalışmalar esasında yapay zekânın insan ve çocuk hakları üzerindeki olası etkilerinin belirsizliğinden doğan endişelerin bir sonucudur. Bu kısa makale son on yılda hızla gelişen ve yaşamın farklı alanlarını etkilemeye başlayan yapay zekânın 21. yüzyılda teknolojinin kucağına doğan çocukların hakları üzerindeki etkilerini konu edinecektir. Makale pratik bir yaklaşımla yapay zekânın etkileme ihtimalinin en olası olduğu çocuk haklarından bazılarını (kişisel verilerin korunması, ifade özgürlüğü, eğitim hakkı) ve çocukların günlük hayatının temelini oluştu- ran alanların (eğitim, eğlence, internet) yapay zekâ ile ilişkisini ele almaya gayret etmiştir.

2.  Çocukların Kişisel Verilerinin Korunması ve Yapay Zekâ

Bu başlıkta teknoloji ve yapay zekânın çocukların kişisel verilerinin korunması ve gizliliği üzerindeki olası negatif etkileri konuya ilişkin ihlal- lere de yer verilerek incelenmiştir.

Çocuklara ait kişisel verilerin toplanması, işlenmesi ve aktarılmasına ilişkin usul ve esaslar veri koruma mevzuatları kapsamında düzenlenmiştir. Avrupa Genel Veri Koruma Tüzüğü’nün sekizinci maddesi8 ile on altı yaşın altındaki çocuklara ait verilerin işlenmesinin yasak olduğu, bu işlemenin hukuken ancak çocuğun veli ya da vasisinin izniyle mümkün olduğu belirtilmiştir. Amerika Birleşik Devletleri’nde ise Çocukların Çevrimiçi Gizlilik Koruma Yasası uyarınca on üç yaşından küçük çocukların verilerinin toplanması, işlenmesi ve açıklanması ancak velilerinin rızasıyla mümkün olacaktır.9 Türk hukuku kapsamında 6698 sayılı Kişisel Verilerin Korunması Kanunu ve ikincil mevzuatında çocuklara özgü bir düzenlemeye yer verilmemiştir. Bununla birlikte, Birleşmiş Milletler Çocuk Hakları Sözleşmesi’nin üçüncü maddesinde düzenlenen çocuğun yüksek yararı ilkesi uyarınca çocuklara ait kişisel verileri işleyen her bir aktörün bu temel ilkeyi esas alarak hareket etmesi gerektiği belirtilmelidir.10

  • (World Economic Forum, 2019)
  • Tüzüğün sekizinci maddesinin çevirisi şu şekildedir:

“1. 6(1) maddesinin (a) bendinin uygulandığı hallerde, doğrudan bir çocuğa bilgi top- lumu hizmetleri sağlanması ile ilgili olarak, çocuğun en az 16 yaşında olması halinde, ilgili çocuğun kişisel verilerin işlenmesi hukuka uygundur. Çocuğun 16 yaşından küçük olması halinde, söz konusu işleme faaliyeti, ancak rızanın çocuk üzerinde velayet hakkı bulunan kişi tarafından verilmesi veya onaylanması halinde ve verildiği veya onaylandığı ölçüde hukuka uygundur. Üye devletler, 13 yaştan küçük olmamak kaydıyla, bu amaç- lara yönelik olarak kanunla daha küçük bir yaş belirleyebilir.

  1. Bu durumlarda, kontrolör mevcut teknolojiyi dikkate alarak rızanın çocuk üzerinde velayet hakkı bulunan kişi tarafından verildiğini veya onaylandığını doğrulamak adına makul çaba sarf
  2. paragraf bir çocuğa ilişkin bir sözleşmenin geçerliliği, oluşturulması veya etkisi ilgili kurallar gibi üye devletlerin genel sözleşme hukukunu etkilemez.”

 

2018 verilerine göre her gün 175.000’den fazla çocuğun ilk kez inter- net kullanarak internet üzerinde dijital ayak izleri bırakmaya başlamasına karşın 11 mevcut yasal düzenlemelerin çocuklara henüz yeterli korumayı sağlayamadığı görülmektedir. Amerika Federal Ticaret Komisyonu, elektronik oyuncak şirketi VTech’in  doğrudan  bildirimde  bulunmadan  ve ebeveynlerinin onayını almadan çocuklardan kişisel veri toplamak ve topladığı verileri güvence altına almak için makul adımları atmamak suretiyle Çocukların Çevrimiçi Gizlilik Koruma Yasası’nı ihlal ettiğine karar vermiştir. VTech bu ihlali sebebiyle $650.000 ceza ödemiştir.12 Nitekim Amerika Federal Ticaret Komisyonu’nun yakın zamanda Google’ın video platformu YouTube’un Çocukların Çevrimiçi Gizlilik Koruma Yasası’nı ihlal ederek çocuklara ait kişisel verileri topladığı ve doğrudan çocukları hedef alan reklamlar sunmak suretiyle kullandığını belirtmesi ve bu pratikten dolayı 170 milyon dolar para cezası ödemesine karar vermiş olması 13 da bunun bir göstergesidir.

Çocuklara ait verilerin korunmasına ilişkin özel teşebbüslerin, şirketlerin ve hükümetlerin daha sıkı ve belirli taahhütlerde bulunması ve bunun yanı sıra çocukların da gizlilik ve mahremiyet haklarına yönelen   bir tehdide karşı kendilerini nasıl koruyacaklarına ilişkin  eğitim  almaları gerekmektedir.14 UNICEF’in 2018’de yayımlamış olduğu Çocukların Çevrimiçi Ortamlarda Mahremiyeti ve İfade Özgürlüğü Gizliliği raporunun ekinde yer verdiği ve dijital ortamda çocukların gizlilik haklarını etkileyebilecek faaliyetlerde bulunan çevrim içi platformlar, mobil operatörler ve cihaz üreticileri gibi herhangi bir şirket tarafından kullanılmak üzere hazırladığı kontrol listesi, özellikle özel teşebbüsler tarafından verilecek taahhütler konusunda bir başlangıç noktası olarak kabul edilebilecektir.15  Bu kontrol listesi; çocukların kişisel verilerini edinmek”, “çocukların kişisel verilerini kullanmak ve saklamak”, “çocukların bilgiye erişimini sağlamak” ve “çocukları çevrimiçi olarak eğitmek ve bilgilendirmek” konu başlıkları altında çocukların veri gizliliği ve ifade hakları üzerinde etkisi olan herhangi bir şirket tarafından internet sitelerinin, platformların, ürünlerin, hizmetlerin tasarımı sürecinde şirketlerde öz denetimin tesisi amacıyla hazırlanmıştır.16

10 (UC Berkeley Human Rights Center, 2019, s. 11) 11 (UNICEF, 2018)

12 (Federal Trade Commission, 2019) 13 (BBC, 2019)

14 (UNICEF, 2018, s. 7)

15 (UNICEF, 2018, s. 13)

Tüm bunların yanında, yasal düzenlemeler uyarınca belli bir yaşın altındaki çocukların verilerinin güvenliğine ve akıbetine ilişkin söz hakkı sahibi olan ebeveynler tarafından çocuklarına ait kişisel verilerin meşru kabul edilemeyecek amaç ve yöntemlerle işlenmesi ve paylaşılması durumuna ilişkin tartışmalar güncelliğini korumaktadır. Öğretide, çocukların kendilerine ait ilk e-posta hesaplarını dahi açmadan önce dijital kimlik- lerinin ebeveynleri tarafından şekillendirildiği ve veri ihlalinde bulunan kişilerin üçüncü kişilerin aksine çocukları korumakla görevli olan ebeveynleri olabileceği belirtilmiştir.17 Çocukların kişilik haklarını, özel yaşamlarını sosyal medya araçları üzerinden ihlal eden ebeveynlere uygulanacak yaptırımları içeren mevcut düzenlemelerin yetersiz kaldığı ileri sürülmüştür.18

2.  YouTube ve Çocukların Sağlıklı Gelişim Hakkı, İfade Özgürlüğü Üzerindeki Etkileri

YouTube dünyanın en çok ziyaret edilen ikinci internet sitesi olmanın yanı sıra Google’dan sonraki en büyük  arama  motorudur.  Aylık  yaklaşık iki milyar insan tarafından tıklanan sitede internet kullanıcıları günlük bir milyar saati aşkın video izlemektedir.19 Türkiye’deki çocuklar da YouTube’un müdavimleri arasında yer almakta, tatil ve boş vakitlerinin önemli bir bölümünü bu platformda geçirmektedir.20 Tabletlerin ve akıllı telefonların yaygınlaşması ve ucuzlaması, çocukların (bilhassa küçük çocukların) platforma erişimini kolaylaştırmış, YouTube’un adeta “bebek bakıcısına” dönüşmesine yol açmıştır.21 Bu nedenle bu başlıkta çocukla-  rın temel eğlence kaynaklarından olan YouTube’un kullandığı algoritmaların22 çocukların gelişimi ve ifade özgürlüğü üzerindeki olumsuz etkileri ele alınacaktır.

 

16 (UNICEF, 2018, s. 13)

17 (Steinberg, 2017) 18 (Serin, 2019)

  • https://www.youtube.com/intl/en-GB/yt/about/press/, erişim 10.2019
  • (Hürriyet, 2019)
  • (UC Berkeley Human Rights Center, 2019, 36-37)
  • Algoritma basit bir şekilde: “Girdi unsurlarından sonuç elde etmeye yarayan  sonlu  mantıki  işlem  ve  komutlardır  (resmi  kurallar  takımıdır).  Bunlar  otomatikleştirilmiş  bir  çalışma  işlemi  ve  makine  öğrenimine  dayanarak  dizayn  edilmiş  modellerin  ob-  jesi olabilir” şeklinde tanımlanabilir. https://www.coe.int/en/web/artificial-intelligence/ glossary, erişim 10.2019

 

Çocukların YouTube’a ilgisinin artışı beraberinde kaygı ve çözüm ara- yışlarını getirmiştir. Dolayısıyla “Çocuklar için Güvenli YouTube” olarak lanse edilen YouTube Çocuk Uygulaması 23 2015’te hayata geçirilmiştir. YouTube’un iddialarına göre uygulama ilgi bazlı reklamcılığı ve reklamcı- ların internet kullanıcılarının çevrimiçi aktivitelerini takip etmesini sağ- layan izleme pikselli reklamları yasaklamaktadır.24 Ancak yukarıda değinildiği üzere, YouTube hukuka aykırı şekilde çocukların kişisel verilerini toplayıp onları hedef alan reklamlar sunmaya devam etmiş, bu uygulama- sı sebebiyle para cezasına çarptırılmıştır.

YouTube Çocuk Uygulaması’na ilişkin bir başka sorunun şeffaflık ol- duğu söylenebilir. Bir içeriğin çocuklara uygun olup olmadığı YouTube’un algoritmaları tarafından kararlaştırılmaktadır. Ancak YouTube Çocuk Uygulaması algoritmalarıyla YouTube’un normal algoritmaları arasında nasıl bir fark olduğu bilgisi kamuoyu ile paylaşılmamaktadır.25 Şeffaflık problemi algoritmaların işlevselliğini de sorgulamaya açmıştır. YouTube Çocuk Uygulaması’nda çocukların nasıl intihar edebileceklerine ilişkin talimatlar veren videolar rastlanmıştır. Youtube’un çocuk versiyonunda rastlanan zararlı içeriklere YouTube’a kıyasen daha hızlı müdahale edilmesine rağmen, platform zararlı içeriklere hızla müdahale edemediğinden dolayı eleştirilmiştir.26

YouTube’un çocukların gelişimi üzerindeki etkisini kavrayabilmek için platformun çalışma şekline göz atmak faydalı olabilir. YouTube’un kârının internet kullanıcılarının sitede geçirdiği süreyle doğru orantılı olduğu söylenebilir. YouTube bu sebeple ziyaretçilerinin sitede olabildiğince vakit geçirmesini sağlayacak şekilde tasarlanmıştır. YouTube’un tavsiye algoritması bu konuda kritik bir rol oynamaktadır. Çünkü sitede izlenen videoların yüzde yetmişi (otomatik oynatma seçeneği sayesinde) bu algoritma tarafından seçilmektedir.27

YouTube’un tavsiye ve otomatik video oynatma mekanizmasının yegâ- ne amacı çocukların YouTube’da daha fazla zaman geçirmesini sağlamaktır. Tavsiye algoritmasının çocuklara önerdiği içeriğin kalitesi veya eğitici bir amaç taşıması gibi bir kaygısı bulunmamaktadır. Algoritma, kullanıcının geçmişini baz alarak onun ilgisini çekebilecek videolar önermekte    ve otomatik olarak oynatabilmektedir. Tavsiye mekanizmasının platformda izlenen her on videodan yedisini seçtiği göz önünde bulundurulursa, çocukların izlediği içeriklerin kayda değer bir kısmının bu sürecin bir ürünü olduğu ileri sürülebilir. Tavsiye algoritmasının çocukların oldukça benzer içerikleri tekrar tekrar izlemesine ve filtre balonunda 28 hapsolmasına yol açabileceği ve düşünce özgürlüğünü olumsuz etkileyebileceği öne sürülmektedir.29

  • https://www.youtube.com/kids/, erişim  10.2019
  • (UC Berkeley Human Rights Center, 2019, 39)
  • (UC Berkeley Human Rights Center, 2019, s. 40) 26 (CNN, 2019)

27 https://www.youtube.com/intl/en-GB/yt/about/press/, erişim 1.10.2019

İçerik oluşturucular YouTube algoritmasının önemini kavramış ve onu alt etmenin yollarını aramaya başlamıştır. Araştırmalar, içerik yaratıcıla- rının etiketleme, başlıklama ve kelime çağrışımıyla algoritmanın tavsiye mekanizmasını bazen manipüle etmeyi başardığını, bu durumun çocuk- ların (YouTube Çocuk Uygulaması’nda) şok veya rahatsız edici içeriklerle karşılaşmasına sebep olduğunu ortaya koymuştur. Popüler çocuk  çizgi film karakterlerini barındıran, şarkı söyleme, eğitim veya renkler gibi ço- cukların ilgisini çekebilecek konularla etiketlenen çok sayıda videonun aslında uygunsuz içerik barındırdığı belirlenmiştir. Popüler çizgi film karakterlerinin araba kazalarında ölüşünün tasviri, kadın çizgi film karakterlerinin cinsel saldırıya uğraması, süper kahraman kostümü giymiş içerik yaratıcılarının şiddet veya cinsellik içeren hareketlerde bulunması hatta çocukların istismarını içeren sahneleri barındıran videoların YouTube Çocuk Uygulaması’nda yer bulduğu not edilmiştir. Bu içeriklerin çocukların duygu ve düşünce dünyası üzerinde olumsuz etki yapabileceği öne sürülmüştür.30

Bu başlıkta şimdiye değin YouTube Çocuk Uygulaması’na ilişkin so- runlar zikredilmiştir. Ancak çok sayıda çocuk YouTube’un Çocuk Uygu- laması yerine YouTube’un orijinal versiyonunu kullanırken ebeveynler bu konuda pasif bir tutum sergilemektedir. Bu durum çocukların uygunsuz içeriklerle karşılaşma ve YouTube’un manipülasyonuna maruz kalma ihtimalini arttırabilir.

YouTube’un ziyaretçilerini sürekli (insan dikkatini kolaylıkla çekebi- len) daha aşırı, ayrıştırıcı ve provokatif içeriklere yönlendirerek onların platformda geçirdiği zamanı arttırmaya çalıştığı öne sürülmüştür.

  • Arama motorları ve sosyal medya platformları, internet kullanıcılarına geçmişteki ak- tivitelerini temel alarak kişiselleştirilmiş bir hizmet sunmaktadır. Bir görüşe göre, in- ternet kullanıcıları internette arama yaptıklarında kişiselleştirilmiş hizmet yüzünden sürekli kendi fikirlerini doğrulayan benzer içeriklerle karşılaşmaktadır. Bu durumun filtre balonu oluşturduğu, bireylerin sürekli olarak kendi fikirlerini onaylamasına ve yankı fanuslarına neden olduğu ve düşünce özgürlüğünün altını oyduğu öne sürülmüştür. Konuya ilişkin ayrıntılı bilgi için bakınız: Eli Pariser, The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think, Penguin Books, 2012
  • (The Atlantic, 2017), (UC Berkeley Human Rights Center, 2019, 41-42)
  • (UC Berkeley Human Rights Center, 2019, 45-46)

 

Örneğin, siyasi yelpazenin sağında veya solunda yer alan bir siyasetçinin videolarını izlediğinizde, YouTube tavsiye algoritmasının (otomatik oynatma vasıtasıyla) kullanıcıları aşırı sağ ya da sol içeriklere yönlendirdiği iddia edilmiştir. Bu hususun siyasi içerikle sınırlı olmadığı, söz gelimi vejetaryenliğe ilişkin içeriklerin veganlığa, koşu ile ilgili videoların ise ultra maratonlara doğru evrildiği öne sürülmüştür.31 Bir görüşe göre “…You- Tube’un tavsiye algoritmasına göre hiçbir zaman yeterince ‘aşırı’ de- ğilsiniz. Algoritma sürekli bahsi arttıran videoları tanıtıyor, tavsiye ediyor ve yayıyor. Milyar civarındaki kullanıcısıyla YouTube 21. yüzyılın en güçlü radikalleştirme araçlarından birisi olabilir.32” Son dönemdeki araştırmalar bu tezi doğrulayan deliller ortaya koymaya başlamıştır.33 Bu durum gelişim çağında olan ve YouTube’da fazla vakit geçiren çocukların, özellikle de hayata tutunmakta veya net bir amaç bulmakta zorlananların, aşırıcılığa kaymasına sebep olabilir.34

3.  Çocukların Eğitim Hakkı ve Yapay Zekâ

Bu başlıkta yapay zekânın okullara kayıt, öğrenci seçme ve değerlendirme ayrıca öğrenci takibindeki kullanımın çocuk hakları üzerindeki  olası negatif etkileri mercek altına alınmıştır.

Yapay zekânın eğitimdeki kullanım alanlarından birisi okul kayıt sürecidir. Önemli bir iş yüküne sebep olan bu prosedürün yapay zekâ kullanımıyla hızlı, kolay, merkezi ve otomatik bir sürece dönüşebileceği ileri sürülmüştür.35 Yapay zekâ okul kayıt sürecine katkı sunabileceği gibi, doğru şekilde geliştirilip kullanılmadığı takdirde çocukların eğitim hakkını zedeleyebilir ve ayrımcılık yapabilir.

Boston’da çocukları evlerine yakın iyi okullara yerleştirmesi amacıyla algoritmalar tarafından yönlendirilen bir okul kayıt sistemi hizmete sunulmuştur. Sistem, Boston’daki öğrencilerin eşit olmayan coğrafi dağılımı, şehrin süregelen coğrafi, ırk ve sosyoekonomik eşitsizlikleri nedeniyle, Siyahi ve Latin öğrencileri iyi okullara yerleşebilmeleri için Beyaz  ve Asyalı öğrencilere kıyasen daha fazla rekabet etmeye zorlamıştır. Sistemin öğrencilerin daha yakın okullara yerleştirilerek seyahat sürelerini kısalttığı da not edilmiştir.36

  • (Tüfekçi, 2018)
  • İbid.
  • (Manoel, Raphael, Robert, Virgílio A. F., & Wagner, 2019) 34 (Kevin, 2019)
  • (fastcompany.com, 2019), (Matt & Jon, 2019)
  • (Boston Area Research Initiative, 2018, 1-3)

Öğrenci seçimi için tasarlanan yapay zekâ sistemleri geliştirilme sürecinden kaynaklanan sorunlardan dolayı ayrımcılık yapabilir. Birleşik Krallık’ta yer alan bir tıp fakültesi başvuran adayların değerlendirilmesi için bir algoritma geliştirmiştir. Sistemin geliştirilmesinde kullanılan eğitim verisi fakültenin geçmiş yıllardaki seçme sonuçlarıdır. Fakülte geçmişte gerekli nitelikleri taşımasına rağmen kadın ve azınlık adaylarını ayrımcı şekilde reddetmiştir. Sistem bu verileri baz alarak geliştirildiğinden nitelikli kadın ve azınlık adayları haksız şekilde geri çevirmiştir.37 Yapay zekânın öğrenci ve bursiyer seçme sürecindeki rolünün artacağı düşünüldüğünden,38 benzer sorunların çocukları da etkilemesi olasıdır.

Yukarıdaki örneklerden çıkarılabilecek sonuç, yapay zekânın bazı problemlerin çözümüne yardım edebileceği ancak karmaşık sosyoekonomik sorunların üstesinden tek başına gelmesinin oldukça zor olduğudur. Ayrıca, kamu hizmetlerinde kullanılacak yapay zekânın geliştirme ve uygulama sürecinde son derece titiz davranılması gereklidir. Yapay zekânın hızlı gelişiminin ortaya çıkardığı heyecan dalgası ve toplumun teknoloji tarafından idare edilen otomasyon sürecine gereğinden fazla güvenmesi (otomasyon önyargısı) bu özenin gösterilmesini kimi zaman zorlaştırmaktadır.

Algoritmalar öğrencilerin okullara yerleştirilmesi sürecinde hatalar ya- pabilmektedir. 144 öğrenci New York’taki nitelikli bir liseye başvurmuş ve reddedilmiştir. Bahsi geçen öğrencilerin okula yerleşmesi gerektiği ancak yerleştirme algoritmasının hatası nedeniyle bunun gerçekleşmediği sonradan anlaşılmıştır. Öğrenciler bu süreçte sözü geçen okuldan daha niteliksiz okullara kaydolarak mağdur olmuştur.39 Benzer bir olay Türkiye’de de yaşanmıştır. Ölçme, Seçme ve Yerleştirme Başkanlığının 2017- ÖSYS yerleştirmesine ilişkin fahiş hatası çok sayıda öğrencinin yerleştir- me sonuçlarının hatalı hesaplanmasına neden olmuştur.40

Yapay zekâ okul içi süreçte de kullanılmaya başlanmıştır. Çin ve Amerika Birleşik Devletleri’ndeki bazı eğitim kurumları öğrencilerin devamsızlığını ve sınıf içi durumunu takip etmek amacıyla yüz tanıma sistemleri 41 kullanmaktadır. Öğrenciler okula yüz tanıma sistemli kapılardan girmekte, sınıf içinde de sistem tarafından her saniye izlenmektedir. Sistemin öğrencilerin yüzünü analiz ederek anlık ruh halini (örneğin mutlu, üzgün, kızgın) takip edebildiği, bunun eğitim kalitesini arttırabileceği ayrıca sürekli gözetimin okulları daha güvenli hale getirdiği iddia edilmiştir.42

37 (Frederik, 2019, s. 11)

kimliğini tespit etmek ya da daha önceden tanımlanmış bir yüzü doğrulamaktır. Bu süreçte fotoğraf, video veya gerçek zamanlı görüntüler kullanılabilir. Sistemin çalışma sürecinde genellikle şu adımlar izlenmektedir: sistem bir yüz görüntüsünü alır, yüzün farklı kısımları (göz, kaş, burun vb.) arasındaki mesafeyi ölçer ve bunu nümerik bir   koda dönüştürür. Son adımda bu kodu veri tabanındaki bir imge ile eşleştirmeye çalı- şır. Bazı yüz tanıma sistemleri eşleşme olasılığı skorunu da hesaplayabilir. https://www. eff.org/tr/pages/face-recognition, erişim 1.10.2019

Yüz tanıma sistemlerinin  okullarda  kullanılmasının  birçok  soruna  yol açması olasıdır. Okulları Panaptikon hapishanesi gibi gözetlemenin öğrencilerin kaygı seviyesini arttıracağı, kendilerini ifade etmesini zorlaştıracağı, soğutma etkisine 43 yol açacağı böylece gelişimlerini olumsuz etkileyeceği söylenebilir. Yüz tanıma sistemlerinin okullardaki kullanımı çocukların kendi kimliklerini keşfetmesini engelleyebilir.44 Çinli bir çocuk yüz tanıma sistemine ilişkin hissiyatını şu şekilde dile getirmiştir: “Halen okulda olsaydım beni izleyen o göz dışında hiçbir şeye konsantre ola- mazdım.45

Çocukların okulda sürekli gözetim altında tutulması onların özel yaşamın gizliliği ve makul mahremiyet beklentisi gibi kavramları yanlış anlamasına yol açabilir. Öğrencilerin potansiyel şüpheli gibi her daim gözetimi, izlenen amaçla orantısız bir tedbir olduğundan özel hayatın gizliliği ilkesini de ihlal edebilir. Birçok ülkede yüz tanıma sistemlerine ilişkin yeterli hukuki düzenleme bulunmadığından bu uygulamanın hukuki bir altyapısının olmadığı da söylenebilir. Kaydedilen verilerin kimler tarafından ne şekilde kullanılabileceğini kestirmek de zordur. Bu durum çocukların kişisel verilerinin korunmasını tehlikeye atabilir.46

Yukarıda bahsi geçen kaygılar Avrupa’da hayat bulmuştur. İsveç’teki  bir lise, öğrencilerin devamsızlığını takip etmek amacıyla yüz tanıma sistemleri kullanmaya başlamıştır. İsveç Veri Koruma Ajansı, okulun birçok bölgesinin kamusal alan olmasına rağmen öğrencilerin sınıflarında makul mahremiyet beklentisine sahip olduğunu, yoklamaların daha az müdahale eden bir yöntemle alınabileceğini, okulun hassas biyometrik verileri hukuka aykırı şekilde işlediğini, yeterli bir etki değerlendirmesi yapılmadığını belirtmiş, uygulamanın Avrupa Veri Koruma Tüzüğü’ne aykırı olduğuna hükmederek sorumlu yerel yönetimi yaklaşık yirmi bin Avro para cezasına çarptırmıştır.47

  • (The Daily Mail, 2019), (The Wall Streer Journal, 2019)
  • Soğutma etkisi, “genel olarak insanları haklarını kullanmaktan alıkoyabilecek ‘cay- dırıcı bir davranış’, korku, risk, hukuk sistemi ve mevzuattaki belirsizlik” olarak ta- nımlanmıştır.” (Frederick, 1978)
  • (American Civil Liberties Union, 2019)
  • (The Telegraph, 2018)
  • (American Civil Liberties Union, 2018), (UC Berkeley Human Rights Center, 2019, s. 30-31)

47 (BBC, 2019)

Yüz tanıma sistemlerine ilişkin bir başka sorun hatalı eşleştirmelerdir. Araştırmalar yüz tanıma sistemlerinin kadın ve azınlıklara ilişkin hata payının (diğer kesimlere kıyasen) yüksek olduğunu ortaya koymuştur.48 Bu durumun kız ve azınlık mensubu öğrencilerin hatalı eşleştirmelerden dolayı ayrımcılığa maruz kalma tehlikesini yükseltmektedir. Hatalı eşleşme- ler yanlış öğrencilerin disiplin cezasına çarptırılması hatta mahkûmiyetiyle sonuçlanabilir.49 Araştırmalar yüz tanıma sistemlerinin öğrencilerin duygularını analiz edemediğine de işaret etmiştir. 50 Bu sebeple yüz tanıma sistemlerinin eğitim kalitesini artıracağını varsaymak hatalı olabilir. Yüz tanıma sistemlerinin yasaklanması için kampanyaların başladığı,51 San Francisco’nun bu sistemlerin kullanımını yasakladığı 52 bir döneme girilirken, Büyük Birader’in okul sıralarında yeri olmadığı düşünülmektedir.53

Kaynakça

  • American  Civil  Liberties  Union.  (2018,  Haziran  20).  New  York  School  District  Seeks Facial Recognition Cameras for Public Schools. Ekim 2, 2019 tarihinde aclu.org: https:// www.aclu.org/blog/privacy-technology/surveillance-technologies/new-york-school-distri- ct-seeks-facial-recognition adresinden alındı
  • American Civil Liberties Union. (2019, Mart 4). Student Surveillance Versus Gun Cont- rol: The School Safety Discussion We Aren’t Having. Ekim 2, 2019 tarihinde www.aclu. org: https://www.aclu.org/blog/privacy-technology/surveillance-technologies/student-sur– veillance-versus-gun-control-school adresinden alındı
  • BBC. (2019, Ağustos 27). Facial recognition: School ID checks lead to GDPR fine. Ekim  2, 2019 tarihinde bbc.com: https://www.bbc.com/news/technology-49489154 adresin- den alındı
  • BBC. (2019, Eylül 4). YouTube fined $170m in US over children’s  privacy  violation. Ekim 1, 2019 tarihinde BBC: https://www.bbc.com/news/technology-49578971 adresin- den alındı
  • Boston Area Research Initiative. (2018). An Evaluation of Equity in the Boston Public. Boston Area Research Initiative.
  • chalkbeat.org. (2019, Nisan 9). Initially rejected, 144 students learn they  were  ac-  cepted to NYC’s coveted Lab School. chalkbeat.org: https://www.chalkbeat.org/posts/ ny/2019/04/09/admissions-error-lab-school-for-collaborative-studies-new-york/ adresin- den alındı
  • CNN. (2019, Şubat 25). A mom found videos on YouTube Kids that gave children inst- ructions for suicide. Ekim 2, 2019 tarihinde CNN: https://edition.cnn.com/2019/02/25/ tech/youtube-suicide-videos-trnd/index.html adresinden alındı
  • (Joy & Timnit, 2018), (American Civil Liberties Union, 2018)
  • (UC Berkeley Human Rights Center, 2019, 31-32)
  • (Martin, Ľubomír, & Štefan, 2019), (Lisa, Ralph, Stacy, Aleix M., & Seth, 2019)
  • https://www.banfacialrecognition.com/, erişim 10.2019
  • (The New York Times, 2019)
  • (American Civil Liberties Union, 2018)
  • Executive Office of the President – The White House. (2016). Big Data: A Report on Algo- rithmic Systems, Opportunity, and Civil Rights. Executive Office of the President – The White House.
  • fastcompany.com. (2019, Mayıs 17). Schools are using software to help pick who gets     in. What could go wrong? Ekim 7, 2019 tarihinde fastcompany.com: https://www.fast- company.com/90342596/schools-are-quietly-turning-to-ai-to-help-pick-who-gets-in-w- hat-could-go-wrong adresinden alındı
  • Federal Trade Commission. (2019, Ocak 8). Electronic Toy Maker VTech Settles FTC Al- legations That it Violated Children’s Privacy Law and the FTC Act. Ekim 1, 2019 tarihin- de Federal Trade Commission: https://www.ftc.gov/news-events/press-releases/2018/01/ electronic-toy-maker-vtech-settles-ftc-allegations-it-violated adresinden alındı
  • Frederick, S. (1978). Fear, Risk, and the First Amendment: Unraveling the ‘Chilling Ef- fect’. Boston University Law Review, 685-732.
  • Frederik, Z. B. (2019). Discrimination, artificial intelligence, and algorithmic decisi- on-making. Avrupa Konseyi.
  • Hürriyet. (2019, Mayıs 09). Çocuklar YouTube’da daha fazla vakit geçiriyor. Ekim  2, 2019 tarihinde Hürriyet: http://www.hurriyet.com.tr/teknoloji/cocuklar-youtubeda-da- ha-fazla-vakit-geciriyor-40946643 adresinden alındı
  • Joy, B., & Timnit, G. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Conference on Fairness, Accountability, and Trans- parency (s. 1-15). Proceedings of Machine Learning Research 81.
  • Kaye, D. (2018). Report of the Special Rapporteur to the General Assembly on Artificial Intelligence technologies and implications for the information environment (A/73/348). United Nations.
  • Kevin, R. (2019, Haziran 8). The Making of a YouTube Radical. Ekim 2, 2019 tarihinde The New York Times: https://www.nytimes.com/interactive/2019/06/08/technology/you- tube-radical.html adresinden alındı
  • Lisa, F. B., Ralph, A., Stacy, M., Aleix M., M., & Seth, D. P. (2019, Temmuz 17). Emo- tional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements. journals.sagepub.com: https://journals.sagepub.com/stoken/default+doma- in/10.1177%2F1529100619832930-FREE/full adresinden alındı
  • Manoel, H. R., Raphael, O., Robert, W., Virgílio A. F., A., & Wagner, M. (2019, Eylül 3). Au- diting Radicalization Pathways on YouTube. arxiv.org: https://arxiv.org/abs/1908.08313 adresinden alındı
  • Martin, M., ubomír, B., & Štefan, K. (2019, Mayıs 9). A Case Study of Facial Emotion Classification Using Affdex. ncbi.nlm.nih.gov: https://www.ncbi.nlm.nih.gov/pmc/artic– les/PMC6539883/ adresinden alındı
  • Matt, K., & Jon, V. (2019, Şubat 28). https://www.brookings.edu/research/the-oppor- tunities-and-risks-of-k-12-student-placement-algorithms/. Ekim 7, 2019 tarihinde broo- kings.edu: https://www.brookings.edu/research/the-opportunities-and-risks-of-k-12-stu- dent-placement-algorithms/ adresinden alındı
  • Mijatović, D. (2019). Unboxing Artificial Intelligence: 10 steps to protect Human Rights. Avrupa Konseyi.
  • Serin, H. (2019, Nisan ). Sosyal Medyada Çocuk Hakları İhlalleri: Ebeveynler ve Öğret- menler Farkında mı? Eskişehir Osmangazi Üniversitesi Sosyal Bilimler Dergisi Nisan 2019,20 (Özel Sayı), s. 22.
  • Steinberg, S. B. (2017). Sharenting: Children’s Privacy in the Age of Social Media. Uni- versity of Florida Levin College of Law – UF Law Faculty Publications [Vol. 66:839 , s. 839-884.
  • AtlaTnhtiec.  (2017,  Temmuz  25).  The  Algorithm  That  Makes  Preschoolers  Obsessed
  • With YouTube. Ekim 1, 2019 tarihinde The Atlantic: https://www.theatlantic.com/tech– nology/archive/2017/07/what-youtube-reveals-about-the-toddler-mind/534765/ adresin- den alındı
  • The Daily Mail. (2019, Nisan 18). Chinese schools use high-tech gates equipped with facial-recognition cameras to keep track of their pupils. Ekim 2, 2019 tarihinde The   Daily Mail: https://www.dailymail.co.uk/news/article-7153981/Chinese-schools-use-faci– al-recognition-gates-monitor-pupils.html adresinden alındı
  • The New York Times. (2019, Mayıs 14). San Francisco Bans Facial Recognition Tech- nology. The New York Times: https://www.nytimes.com/2019/05/14/us/facial-recogniti– on-ban-san-francisco.html adresinden alındı
  • The Telegraph. (2018, Mayıs 17). Chinese school uses facial recognition to monitor stu- dent attention in class. Ekim 2, 2019 tarihinde The Telegraph: https://www.telegraph. co.uk/news/2018/05/17/chinese-school-uses-facial-recognition-monitor-student-attenti-   on/ adresinden alındı
  • The Wall Streer Journal. (2019, Temmuz 30). Facial Recognition Tech Comes to Schools and Summer Camp. Ekim 2, 2019 tarihinde The Wall Street Journal: https://www.wsj. com/articles/facial-recognition-goes-to-camp-11564479008 adresinden alındı
  • Tüfekçi, Z. (2018, Mart 10). YouTube, the Great Radicalizer. Ekim 1, 2019 tarihinde      The New York Times: https://www.nytimes.com/2018/03/10/opinion/sunday/youtube-po- litics-radical.html?smid=pl-share&fbclid=IwAR3d4r2a_Fj6Gk08vJWrIaOh70hgms7B- cuMW5wRwLhvBKhDCCzjFHsK4SxY adresinden alındı
  • UC Berkeley Human Rights Center. (2019, Nisan). Memorandum on Artificial Intelligen- ce and Child Rights. UC Berkeley School of Law Human Rights Center.
  • UNICEF. (2018). Children’s Online Privacy and Freedom of Expression. UNICEF.
  • UNICEF. (2018, Şubat 2018). More than 175,000 children go online for the first time every day, tapping into great opportunities, but facing grave risks. UNICEF: https://www. unicef.org/eca/press-releases/more-175000-children-go-online-first-time-every-day-tap- ping-great-opportunities adresinden alındı
  • World Economic Forum. (2019). Generation AI-Establishing Global  Standards  for  Child- ren and AI. “Generation AI – Establishing Global Standards for Children and AI” http:// www3.weforum.org/docs/WEF_Generation_AI_%20May_2019_Workshop_Report.pdf.

Yazan: Av. Fatmanur CAYGIN – Av. Can YAVUZ

 Makale Kaynağı: İSTANBUL BAROSU DERGİSİ • Cilt: 94 • Sayı: 3 • Yıl: 2020

Kaynak Link : https://www.istanbulbarosu.org.tr/YayinDetay.aspx?ID=573&desc=Cilt:-94-Say%C4%B1:-2020/3

BİR CEVAP BIRAK

Please enter your comment!
Please enter your name here