[ad_1]
Washington, 4 oct (EFE).- La Casa Blanca solicitó este martes que el diseño de los sistemas automáticos ofrezca al usuario información clara para contener el potencial impacto negativo que pueda derivarse del uso de la Inteligencia Artificial (IA).
Los principios que a su juicio deberían seguirse para proteger a la población de posibles abusos apuntan que el lanzamiento de esos sistemas debería ir precedido de una evaluación previa de los riesgos y de medidas para mitigarlos.
A los diseñadores y desarrolladores también se les pide que tomen medidas proactivas y continuas para proteger a individuos y comunidades de la discriminación algorítmica y para que su uso y diseño sea equitativo.
Para la Casa Blanca, el usuario también debe saber el posible impacto que podrían tener esos sistemas automáticos y poder optar por una “alternativa humana” que pueda solucionar sus problemas cuando sea apropiado.
Su hoja de ruta, vista como un compendio de recomendaciones, ya que no incluye iniciativas legislativas, se aplica a sistemas automáticos “que tienen el potencial de afectar de forma significativa los derechos públicos, las oportunidades o el acceso a recursos o servicios críticos”.
Toda petición de consentimiento, además, “debería ser breve y comprensible”, así como ofrecer de manera clara el uso específico que prevé darse a los datos recogidos.
Sus principios abarcan desde el diseño al uso y la expansión de los sistemas automáticos para velar por el público en la era de la Inteligencia Artificial.
Ese marco de derechos recalca que el poder de la tecnología es una de las grandes amenazas a las que se enfrenta la democracia y recuerda que está probado que los algoritmos reproducen desigualdades existentes o generan nuevas discriminaciones.
Impulsada por “el poder de la innovación estadounidense”, esas herramientas, según se concluye, tienen el poder de redefinir la sociedad y mejorar la vida de la gente, pero el progreso potencial no debe ir en detrimento de los derechos civiles o los valores democráticos.
Related
[ad_2]
Source link