-
[TED] Algorithmic BiasEtc 2021. 6. 19. 03:57
https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms/up-next
학교 다닐 때 듣던 교양에서 영어 발표 준비하면서 접했던 ted talk
민규오빠가 본다길래 나도 오랜만에 다시 봤당
이 강연의 연사인 조이는 알고리즘적 차별에 대해 경고하고 있다
0과 1의 나열일뿐인 코드나부랭이가 어떻게 차별을 한다는건지 이해가 안 될 수도 있지만
실제로 다양한 차별 사례가 존재했다
조이는 mit 대학원 재학 중, 스마트 미러에 관한 프로젝트를 진행했는데 그 때 사용한 얼굴인식 알고리즘은 특정 인종의 얼굴을 인식하지 못하는 문제가 발생했다
(위의 자료처럼 흰색 가면을 썼을 때에야 인식하는 문제가 발생)
이러한 현상은 얼굴 인식 알고리즘을 학습하는 데에 사용된 데이터가 일부 인종에 편향되었던 것에서 비롯되었다
이 예시 외에도, 같은 체온계를 들고있음에도 특정 인종의 결과만 총이라고 라벨링한 경우도 있고
트위터의 미리보기 사진 선정 알고리즘이 특정 인종만을 편향적으로 나타내어 인정하고 사과했던 사례도 있었다
알고리즘적 차별은 사이버 공간의 특성상 시공간의 무제약성 때문에 이러한 차별이 엄청난 속도로 확산될 수 있다
또한 "알고리즘"에 대한 의존도가 점점 증가하는 추세에 따라, 알고리즘이 성별•나이•인종에 따른 차별이 나중에는 더 심각한 영향을 미칠 수 있다
알고리즘을 설계하면서 사용자에 대한 차별이 존재할거라는 상상 자체를 해본 적이 없었다
알고리즘이나 시스템 규모가 커질 수록 상상도 못했던 문제점이 발생할 수 있고, 이에 따라 기술적 측면만이 아니라 사용자의 니즈를 최대한 충족할 수 있도록 고려해야 할 사항들도 많아지는 것 같다'Etc' 카테고리의 다른 글
[Intellij] Can not resolve symbol 'String' 오류 해결 (466) 2021.08.03 백엔드 개발자 로드맵(2021) (430) 2021.07.07 [Book] 나는 LINE 개발자입니다 (0) 2021.05.09 아파트 거래 정보 조회 시스템 Database Table 설계 (2) 2021.04.17 VSCode에서 jQuery 자동완성 기능 추가하기 (2) 2021.03.11