"Znanstveniki so primerjali kriminalne obraze obsojenih obrazov, naredili so neki algoritem, ki se je naučil prepoznavati take obraze. S temi modeli so ljudem pripisovali neko verjetnost, da bodo postali zločinci. To je neke vrste neofrenologija oziroma algoritmična frenologija. Zadnjih 80 let nam je bilo to v posmeh, a zdaj vidimo, kako zares se vrača."
Človeško odločanje je polno predsodkov, a to velja tudi za strojno - RTVSLO.si https://www.rtvslo.si/stevilke/clovesko-odlocanje-je-polno-predsodkov-a-to-velja-tudi-za-strojno/544326
@mihec @luka
V navedenem primeru ni problem kvalitete programske opreme.
Podobno kot uporaba tablet ne more nadomestiti človeškega terapevta pri prihoterapiji tudi podatki in algoritmi lahko nudijo zgolj oporo pri odločanju.
Zgolj iz tega kar je bilo ne moremo zvajati na to kar naj bo, tudi če postavimo fetišiziran kos tehnologije vmes.
@g1smo @luka >V navedenem primeru ni problem kvalitete programske opreme.
Del kvalitete je tudi presoja o validnosti. Sploh pa model, ki temelji na znanstvenem rasizmu zgodnjega 20. stoletja zagotovo ni kvaliteten.
>algoritmi lahko nudijo zgolj oporo pri odločanju
Seveda, ampak a ni to že uzakonjeno, ali se je samo govorilo o tem?