Antes de implementar uma nova ferramenta tecnológica, o titular da Ordem do CRHA recomenda que os gestores de recursos humanos coloquem diversas questões, tanto sobre o rigor do software pretendido, como sobre as consequências que este poderá ter nos seus colaboradores. (Foto: 123RF)
O ano de 2024 será marcado pela maior utilização da inteligência artificial generativa (IA) dentro das organizações, gostem ou não, segundo Sandra Houillier, diretora de serviços do grupo Capital Humano e líder da prática de transformação de RH e experiência dos funcionários da Deloitte. Especialistas em recursos humanos, vocês têm um papel vital a desempenhar para uma integração bem-sucedida.
Pelo menos é o que sugerem vários especialistas, incluindo Alina Nusa Stamate, professora do Departamento de Organização e Recursos Humanos da ESG UQAM.
“Integrar a IA nas empresas não é apenas uma questão técnica; também diz respeito às pessoas e à organização, explica ela em entrevista ao Ofertas. Não basta criar e implementar sistemas de IA eficazes; é preciso também garantir que atendam às necessidades, expectativas e valores dos colaboradores e da empresa. »
A diretora-geral da Ordem dos Conselheiros Certificados de Recursos Humanos (CRHA), Manon Poirier, concorda. As pessoas que ocupam tal posição nas empresas devem estar preparadas para identificar quais serão as consequências da adoção da IA para os funcionários e se a sua utilização é ética, acredita ela.
Segundo o advogado formado, este último ponto é, no entanto, “uma responsabilidade partilhada, mas o pessoal de RH sempre teve esta visão sobre a adequação administrativa. É uma continuação natural do seu papel fazer perguntas éticas […]para que possamos transpor essas competências para analisar as tecnologias que a empresa deseja adotar.
Por mais benéfica que a IA possa ser para a produtividade, a sua utilização acarreta riscos, lembra Alina Nusa Stamate. Por exemplo, pode perpetrar preconceitos discriminatórios. “Isto significa que estes sistemas devem ser desenvolvidos e utilizados de uma forma que respeite princípios éticos fundamentais como a justiça, a equidade, a transparência, o respeito pela privacidade e a dignidade dos indivíduos. »
Há alguma pergunta
Antes de implementar uma nova ferramenta tecnológica, o titular da Ordem do CRHA recomenda que os gestores de recursos humanos coloquem diversas questões, tanto sobre o rigor do software pretendido, como sobre as consequências que este poderá ter nos seus colaboradores. Por exemplo, as competências de certas pessoas podem rapidamente tornar-se obsoletas.
“Já se foram os dias em que você poderia simplesmente demitir e recontratar alguém por falta de habilidades. Uma empresa socialmente responsável tem o dever de apoiar as pessoas para que possam desenvolver novas competências”, afirma.
A Ordem da CRHA ainda não adotou uma posição oficial sobre como regular o uso ético da IA. A formação e a sensibilização do pessoal parecem ser a chave.
Alina Nusa Stamate também sugere a adoção de políticas que determinem claramente quando e por que o uso de IA é permitido.
Muitas organizações estão atualmente a fazer estas perguntas, numa altura em que os funcionários estão a envolver-se com IA generativa sem a aprovação da gestão sénior, confirma Manon Poirier. Este último, no entanto, não recomenda a proibição da sua utilização para mitigar o risco de derrapagem. “É muito preocupante”, ela admite. Proibir isso é enterrar a cabeça na areia. Em vez disso, devemos nos perguntar como enquadrá-lo. »
Daí a importância de enfrentá-lo rapidamente, segundo o diretor-geral.
Para ficar atenta a abusos, Alina Nusa Stamate recomenda também pedir ajuda a especialistas para responder a certas questões “complexas ou precisas”. » Ela acrescenta ainda que “as questões éticas relacionadas com a IA podem ser identificadas e resolvidas rapidamente através da promoção de uma comunicação aberta e transparente”.
A importância de uma boa supervisão
As divisões de recursos humanos que planeiam adotar a IA também terão de fazer um trabalho diligente para garantir que a sua utilização seja exemplar. É por isso que o professor da ESG UQAM sugere que realizem auditorias frequentes e verifiquem as repercussões da sua utilização nos colaboradores, o seu nível de satisfação e o seu desenvolvimento profissional.
“Essas auditorias podem ser realizadas por especialistas internos ou externos que avaliarão a qualidade dos dados, algoritmos e resultados de IA para detectar possíveis vieses, erros ou anomalias”, explica.
Mecanismos como sistemas de alerta ou notificação também podem ser implementados para “garantir a transparência e a rastreabilidade e proteger os direitos e interesses das pessoas afetadas pela IA”.
O que as empresas e as divisões de recursos humanos não devem perder de vista é que esta questão espinhosa está em constante evolução. É por isso que Alina Nusa Stamate defende a vigilância não só sobre os avanços na ética e compliance, mas também sobre as repercussões da IA na organização, para “adaptar-se em conformidade”. »