Teknologji dhe Inovacion

Raporti: Google i vë përdoruesit në rrezik me këshillat shëndetësore në AI

Nga Gazeta Si- Google po i vë njerëzit në rrezik duke minimizuar paralajmërimet e sigurisë se këshillat e saj mjekësore të gjeneruara nga AI mund të jenë të gabuara.

Kur u përgjigjet pyetjeve rreth temave të ndjeshme si shëndeti, kompania thotë se Përmbledhjet e saj të AI-së, të cilat shfaqen mbi rezultatet e kërkimit, i nxisin përdoruesit të kërkojnë ndihmë profesionale, në vend që të mbështeten vetëm në përmbledhjet e saj.

“Përmbledhjet e AI-së do t’i informojnë njerëzit kur është e rëndësishme të kërkojnë këshilla nga ekspertët ose të verifikojnë informacionin e paraqitur”, ka thënë Google.

Por në një raport, Guardian zbuloi se kompania nuk përfshin asnjë deklaratë të tillë mohimi përgjegjësie kur përdoruesve u paraqitet për herë të parë këshilla mjekësore.

Google lëshon një paralajmërim vetëm nëse përdoruesit zgjedhin të kërkojnë informacion shtesë shëndetësor dhe të klikojnë në një buton të quajtur “Shfaq më shumë”. Edhe atëherë, etiketat e sigurisë shfaqen vetëm poshtë të gjitha këshillave shtesë mjekësore të mbledhura duke përdorur AI gjeneruese dhe me një font më të vogël dhe më të lehtë.

Google nuk e mohoi që mohimet e saj nuk shfaqen kur përdoruesve u jepet këshilla e parë mjekësore, ose që ato shfaqen poshtë ‘Përmbledhjeve të AI-së ‘dhe me një font më të vogël dhe më të lehtë. Përmbledhjet e IA-së “inkurajojnë njerëzit të kërkojnë këshilla mjekësore profesionale” dhe shpesh përmendin kërkimin e ndihmës mjekësore brenda vetë përmbledhjes “kur është e përshtatshme”, tha një zëdhënës.

Ekspertët e IA-së dhe avokatët e pacientëve, të cilëve iu paraqitën gjetjet e Guardian, thanë se ishin të shqetësuar. Mohimet shërbejnë për një qëllim jetësor, thanë ata, dhe duhet të shfaqen dukshëm kur përdoruesve u jepet këshilla e parë mjekësore.

“Mungesa e mohimeve kur përdoruesve u jepet fillimisht informacion mjekësor krijon disa rreziqe kritike”, tha Pat Pataranutaporn, profesor asistent, teknolog dhe studiues në Institutin e Teknologjisë të Masaçusetsit (MIT) dhe ekspert i njohur botërisht në AI dhe ndërveprimin njeri-kompjuter.

“Së pari, edhe modelet më të përparuara të AI-së sot ende nxjerrin dezinformata ose shfaqin sjellje servile, duke i dhënë përparësi kënaqësisë së përdoruesit mbi saktësinë. Në kontekstet e kujdesit shëndetësor, kjo mund të jetë vërtet e rrezikshme. Së dyti, çështja nuk ka të bëjë vetëm me kufizimet e AI-së, ka të bëjë me anën njerëzore të ekuacionit. Përdoruesit mund të mos ofrojnë të gjithë kontekstin e nevojshëm ose mund të bëjnë pyetje të gabuara duke keqvëzhguar simptomat e tyre.


Copyright © Gazeta “Si”


Më Shumë