A revolução da inteligência artificial (IA) moderna tem vindo a ser discretamente preparada há mais de uma década, mas só recentemente é que as ferramentas de IA altamente avançadas têm estado prontamente disponíveis para utilizadores não técnicos.
As ferramentas de IA generativa, capazes de utilizar instruções simples para gerar conteúdos impressionantes de texto ou imagem, fizeram realmente um grande avanço. Já fazem parte do conjunto de ferramentas do profissional moderno para debater ideias, criar visualizações rápidas e obter feedback instantâneo de um colega de trabalho.
A IA não generativa também aumentou o poder das ferramentas digitais existentes, permitindo aos profissionais utilizar a sua capacidade de detetar padrões e compreender dados não formatados para melhorar os seus fluxos de trabalho.
A IA é uma ferramenta poderosa - mas um grande poder vem acompanhado de uma grande responsabilidade. Os limites e os riscos da IA estão bem documentados, desde as preocupações com questões de propriedade intelectual relativas às ferramentas de IA generativas, até aos padrões de raciocínio defeituosos que reforçam e melhoram os preconceitos e as tendências humanas comuns.
Por esse motivo, as empresas que utilizam e desenvolvem ferramentas de IA estão a esforçar-se por obter uma IA responsável e ética. Trata-se de uma mentalidade que tem como objetivo desenvolver as utilizações positivas da IA e torná-las acessíveis a mais pessoas, ao mesmo tempo que toma medidas para atenuar os graves riscos que esta cria.
As ferramentas de IA não vão desaparecer e, no futuro, serão ainda mais avançadas e amplamente utilizadas do que atualmente. Por isso, é altura de todas as empresas começarem a pensar na forma como a IA responsável e ética pode ser assegurada nas organizações. Este artigo não deve ser visto como um conselho jurídico ou de compliance, mas ajudá-lo-á a compreender o que significa na prática a IA responsável e como incentivar a utilização responsável da IA na sua empresa.
o que é a IA responsável?
Embora os princípios básicos sejam os mesmos, a definição de IA responsável varia. De acordo com a Google, que está a investir fortemente nas suas próprias ferramentas de IA:
"A IA responsável considera o impacto social do desenvolvimento e da escala das tecnologias [de IA], incluindo os potenciais danos e benefícios."
Nós utilizamos a IA de acordo com os nossos princípios de IA. A Randstad utiliza a IA quando os resultados são benéficos para todos, quando há supervisão humana e respeito pela autonomia humana, quando é transparente e explicável, quando é justa e inclusiva na sua conceção, quando é utilizada tendo em conta a segurança e a proteção e, por último, quando quem utiliza qualquer sistema de IA é responsável.
Em todo o trabalho relacionado com IA, pretendemos manter-nos responsáveis, centrando-nos sempre na equidade, responsabilidade, segurança e privacidade. A Microsoft, outro grande impulsionador da transformação da IA, define os sistemas de IA responsáveis como justos, fiáveis e seguros, privados e seguros, inclusivos, transparentes e responsáveis.
A definição exacta da sua empresa de utilização responsável da IA pode ser ligeiramente diferente. Mas o significado básico será o mesmo - IA que é utilizada de uma forma ética, legal, positiva e inclusiva. Significa utilizar a IA para complementar e melhorar as capacidades humanas, reduzindo a influência dos preconceitos humanos comuns, em vez de a utilizar para substituir totalmente os seres humanos.
No mundo dos RH, um exemplo potencial de utilização responsável poderia ser a utilização de um chatbot de IA para analisar e ajustar as descrições das funções de modo a evitar uma linguagem não inclusiva. No entanto, a ferramenta de recrutamento com IA da Amazon, que a empresa deixou de utilizar depois de descobrir que era tendenciosa contra as candidatas do sexo feminino, não é um bom exemplo.
como garantir uma utilização responsável da IA na sua empresa
Dependendo do seu negócio e da experiência anterior da sua empresa com a IA, há várias formas de criar um entendimento comum do que é uma utilização responsável da IA e de o pôr em prática em toda a empresa. No entanto, a maioria das empresas que já estão a ter sucesso fazem-no de uma ou mais das seguintes formas:
formação em utilização responsável da IA
É improvável que introduza uma nova ferramenta importante, como um sistema CRM ou ATS, sem dar formação adequada aos profissionais. Assim, quando uma nova tecnologia como a IA começa a infiltrar-se em todas as partes da sua empresa, é igualmente importante garantir que a sua equipa sabe como utilizá-la de forma adequada e responsável.
Desde que as ferramentas de IA generativa de fácil utilização se tornaram populares, o entusiasmo só tem aumentado. Os utilizadores inexperientes de IA podem ver estas ferramentas como completamente positivas e isentas de riscos, ignorando os potenciais riscos - tais como problemas de segurança dos dados, violações da propriedade intelectual e injustiças e preconceitos causados, entre outros, por dados de formação de má qualidade.
A formação é uma oportunidade para dissipar os mitos em torno da IA e informar os colegas sobre as desvantagens e limitações da tecnologia. Quando conhecerem todos os factos, poderão tirar partido das vantagens da IA, evitando os seus perigos mais graves.
A formação também é procurada pelos trabalhadores atuais. No inquérito Workmonitor da Randstad a mais de 27.000 trabalhadores em todo o mundo, a IA estava no topo da lista de competências que os inquiridos queriam desenvolver. Um inquérito da PwC a mais de 54.000 trabalhadores teve resultados semelhantes, encontrando uma atitude amplamente positiva em relação à IA no local de trabalho entre os inquiridos. Educar os profissionais sobre as competências-chave de IA e sobre como utilizar a tecnologia como uma ferramenta útil pode torná-los utilizadores de IA confiantes e eficazes e satisfazer a sua procura de conhecimentos.
monitorizar a utilização da IA e envolver os trabalhadores
Mais uma vez, não introduziria uma nova ferramenta importante como um sistema CRM na organização e depois nunca verificaria a forma como está a ser utilizada. Para garantir o sucesso, as equipas que trabalham com a ferramenta ajustariam continuamente os seus processos e explorariam novas funcionalidades, descobrindo o que funciona e certificando-se de que a ferramenta não é utilizada incorretamente. A sua organização deve fazer o mesmo com as suas ferramentas de IA para garantir uma utilização responsável.
A nível operacional, designar profissionais específicos como "owners" (responsáveis) das ferramentas de IA ajuda a desenvolver conhecimentos especializados e a criar responsabilidade. Garantir que estes proprietários estão familiarizados com os princípios da IA responsável também os ajuda a avaliar novos casos de utilização e evita a utilização não supervisionada de ferramentas de IA poderosas em novas áreas da empresa.
A um nível mais elevado, os inquéritos regulares podem ajudar a liderança da empresa a compreender como a IA é atualmente utilizada na organização e como esse uso cresce ao longo do tempo - garantindo que ninguém é apanhado de surpresa se surgirem potenciais problemas de IA.
Em suma, as novas ferramentas de IA não devem ser implementadas de uma forma "fixa e esquecida". Em vez disso, os funcionários devem compreender a importância de pensar criticamente sobre a sua utilização da IA e trabalhar para melhorar e desenvolver a sua utilização das ferramentas ao longo do tempo.
políticas e gestão clara e responsável da IA
Ter documentos claros de gestão de IA e uma definição comum de IA responsável é uma das medidas mais importantes. A ideia de "responsável" de cada pessoa pode ser diferente, e uma política de IA definida, aprovada pela liderança da empresa e distribuída a todos os colegas, coloca toda a gente na mesma página. Dá aos membros da equipa algo a que recorrer se não estiverem 100% seguros de que a tarefa de IA planeada é permitida e responsável.
Os nossos modelos para criar os seus próprios princípios de IA e políticas são excelentes recursos se estiver a começar a conceber a posição oficial da sua empresa sobre a IA. Mas se está a começar e quer ter a certeza de que está a fazer as perguntas certas sobre a IA, faça o download do nosso fluxograma para identificar a utilização responsável da IA na sua organização. Ao colocar uma série de questões, este fluxograma ajudá-lo-á a avaliar casos específicos de utilização de IA e dir-lhe-á se podem ser considerados responsáveis - ou se precisa de trabalhar melhor o assunto antes de implementar quaisquer princípios na empresa.