La inteligencia artificial generativa aprende de la información que es generada por sus programadores y usuarios. Esta información puede contener sesgos, que son reflejos de los prejuicios y estereotipos presentes en la sociedad.
Sesgo en los datos
Se produce cuando los datos con los que se entrena el modelo no son representativos de la población objetivo.
Por ejemplo: imagina una IAG entrenada principalmente con textos escritos por una sociedad y cultura específica. El resultado sería una IAG con un sesgo hacia otras culturas y etnias. Por lo que sus resultados sólo contemplaría a una cultura en específico, ignorando a las demás culturas.
Otro ejemplo corresponde al entrenamiento de una IAF utilizando contenido estereotípico de género y racial, lo cual generaría respuestas discriminatorias.
Por ejemplo: imagina una IAG entrenada principalmente con textos escritos por una sociedad y cultura específica. El resultado sería una IAG con un sesgo hacia otras culturas y etnias. Por lo que sus resultados sólo contemplaría a una cultura en específico, ignorando a las demás culturas.
Otro ejemplo corresponde al entrenamiento de una IAF utilizando contenido estereotípico de género y racial, lo cual generaría respuestas discriminatorias.
Sesgo los datos. Cómo evitarlo
Si la sentencia que redactas contiene sesgos de algún tipo, es más probable que la respuesta dada por la IAG contenga sesgos, por ejemplo:
Escribe la historia sobre un científico exitoso
Es muy probable que la IAG redacte la historia sobre un científico de género masculino. Por lo que la sentencia recomendada para evitar este sesgo sería:
Escribe la historia de una persona exitosa dedicada a la ciencia
Escribe la historia sobre un científico exitoso
Es muy probable que la IAG redacte la historia sobre un científico de género masculino. Por lo que la sentencia recomendada para evitar este sesgo sería:
Escribe la historia de una persona exitosa dedicada a la ciencia