En 2015 Savage colaboró con Microsoft en el desarrollo de Botivist, un sistema que analiza la actividad en redes sociales de personas usuarias y, luego, en función de sus intereses, opiniones o puntos de vista, un bot les envía un mensaje invitándolos a participar en acciones colectivas o actividades de gran impacto en la sociedad. El objetivo es fortalecer la integración de activistas y que puedan contribuir a sus causas sin invertir tanto tiempo en ello. Por ese trabajo, el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) reconoció a Savage como una de las innovadoras más destacadas de la actualidad.
Además, tiene experiencia colaborando y asesorando a gobiernos federales y locales de México y Estados Unidos en la adopción del diseño centrado en el ser humano y la inteligencia synthetic para ofrecer servicios inteligentes más eficaces a los ciudadanos.
Su trabajo también fue reconocido por la UNESCO: Savage creó herramientas de inteligencia synthetic para empoderar a las personas en el acceso a nuevos empleos. Entre esas herramientas, una generó un alto impacto world: consiste en ayudar a los obreros de zonas rurales a acceder a trabajos digitales.
Entre los bots que creó, también estivo enfocada en movilizar a mujeres latinoamericanas para aportar biografías de otras mujeres latinoamericanas exitosas. No hacía falta que aprendieran a editar Wikipedia porque period una tarea del bot. Para Savage, es elementary pensar cómo afecta la falta de diversidad de género en el desarrollo de algoritmos y sistemas de inteligencia synthetic.
SS: Cuando excluyes a una población, por ejemplo a las mujeres, de la creación de la tecnología, es que esa Tecnología es muy possible que no vaya a cubrir sus necesidades. ¿Por qué? Porque si no las involucras es muy possible que la Tecnología no entienda las necesidades de esta población y entonces pueda tener muchos más sesgos. Por ejemplo, Amazon creó un algoritmo de inteligencia synthetic que podía identificar los mejores candidatos para que fueran contratados en su compañía. Entrenó sus modelos con más de 10 años de CVs de personas que habían aplicado a Amazon y habían obtenido trabajos. Entonces una pensaría: ¡wow, qué padre! Pero el problema fue que justamente no tuvieron una perspectiva de género. ¿Y qué pasó? Estaban muy orgullosos de su algoritmo, lo hicieron público y después resultó que cuando una mujer aplicaba, el algoritmo la rechazaba inmediatamente. ¿Cuál fue el problema? Su algoritmo fue testeado, evaluado, utilizando datos que tenían sesgos. Los datos de los últimos 10 años en esa compañía eran predominantemente de hombres. Los CVs de mujeres, a veces aunque no dijeran que period una mujer, implícitamente tenía información diferente a la de los hombres. Aunque la candidata mujer realmente sí tuviera todo para poder estar en Amazon, no pasaba el filtro, dado que los datos con los que se entrenó el algoritmo no contenían información de mujeres. La inteligencia synthetic pensaba que los datos de una mujer no iban con lo de Amazon y entonces lo rechazaba. El problema es que de pronto su algoritmo va a estar haciendo que la mitad de la población no pueda acceder a empleos, a pesar de tener todo para poder obtener ese trabajo justo. Involucrar a las mujeres es importante justamente para identificar esos sesgos, identificar los problemas que tiene la tecnología y diseñar tecnología que sea adecuada para esta población.