[Video] How I'm fighting bias in algorithms | Joy Buolamwini


A estudante de graduação do MIT Joy Buolamwini estava trabalhando com um software de análise facial quando percebeu um problema: o software não detectou seu rosto - porque as pessoas que codificaram o algoritmo não o ensinaram a identificar uma ampla variedade de tons de pele e estruturas faciais . Agora, ela está em uma missão para combater o preconceito no aprendizado de máquina, um fenômeno que ela chama de "olhar codificado". É uma palestra reveladora sobre a necessidade de responsabilidade na codificação... à medida que os algoritmos assumem cada vez mais aspectos de nossas vidas.
A estudante de graduação do MIT Joy Buolamwini estava trabalhando com um software de análise facial quando percebeu um problema: o software não detectou seu rosto - porque as pessoas que codificaram o algoritmo não o ensinaram a identificar uma ampla variedade de tons de pele e estruturas faciais . Agora, ela está em uma missão para combater o preconceito no aprendizado de máquina, um fenômeno que ela chama de "olhar codificado". É uma palestra reveladora sobre a necessidade de responsabilidade na codificação ... à medida que os algoritmos assumem cada vez mais aspectos de nossas vidas.
A estudante de graduação do MIT Joy Buolamwini estava trabalhando com um software de análise facial quando percebeu um problema: o software não detectou seu rosto - porque as pessoas que codificaram o algoritmo não o ensinaram a identificar uma ampla variedade de tons de pele e estruturas faciais . Agora, ela está em uma missão para combater o preconceito no aprendizado de máquina, um fenômeno que ela chama de "olhar codificado". É uma palestra reveladora sobre a necessidade de responsabilidade na codificação ... à medida que os algoritmos assumem cada vez mais aspectos de nossas vidas.
A estudante de graduação do MIT Joy Buolamwini estava trabalhando com um software de análise facial quando percebeu um problema: o software não detectou seu rosto - porque as pessoas que codificaram o algoritmo não o ensinaram a identificar uma ampla variedade de tons de pele e estruturas faciais . Agora, ela está em uma missão para combater o preconceito no aprendizado de máquina, um fenômeno que ela chama de "olhar codificado". É uma palestra reveladora sobre a necessidade de responsabilidade na codificação ... à medida que os algoritmos assumem cada vez mais aspectos de nossas vidas.
A estudante de graduação do MIT Joy Buolamwini estava trabalhando com um software de análise facial quando percebeu um problema: o software não detectou seu rosto - porque as pessoas que codificaram o algoritmo não o ensinaram a identificar uma ampla variedade de tons de pele e estruturas faciais . Agora, ela está em uma missão para combater o preconceito no aprendizado de máquina, um fenômeno que ela chama de "olhar codificado". É uma palestra reveladora sobre a necessidade de responsabilidade na codificação ... à medida que os algoritmos assumem cada vez mais aspectos de nossas vidas.
A estudante de graduação do MIT Joy Buolamwini estava trabalhando com um software de análise facial quando percebeu um problema: o software não detectou seu rosto - porque as pessoas que codificaram o algoritmo não o ensinaram a identificar uma ampla variedade de tons de pele e estruturas faciais . Agora, ela está em uma missão para combater o preconceito no aprendizado de máquina, um fenômeno que ela chama de "olhar codificado". É uma palestra reveladora sobre a necessidade de responsabilidade na codificação ... à medida que os algoritmos assumem cada vez mais aspectos de nossas vidas.

Comentários

Postagens mais visitadas