Embora este tópico atraia muita atenção do público, muitos pesquisadores não estão preocupados com a ideia de a IA ultrapassar a inteligência humana em um futuro próximo ou imediato. Isso também é conhecido como superinteligência, que Nick Bostrum define como "qualquer intelecto que supera amplamente os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais". Apesar de a IA forte e a superinteligência não serem iminentes na sociedade, a ideia dela levanta algumas questões interessantes quando consideramos o uso de sistemas autônomos, como carros autônomos. Não é realista pensar que um carro sem motorista nunca sofreria um acidente de carro, mas quem seria o responsável legal nessas circunstâncias? Devemos ainda buscar veículos autônomos ou limitar a integração dessa tecnologia para criar apenas veículos semiautônomos que promovam a segurança entre os motoristas? O júri ainda não decidiu isso, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA são desenvolvidas.
Embora grande parte da percepção pública em torno da inteligência artificial gire em torno da perda de tarefas, essa preocupação provavelmente deve ser reformulada. A cada nova tecnologia disruptiva, vemos que a demanda do mercado por funções de tarefa específicas também muda. Por exemplo, quando olhamos para o mercado automotivo, muitos fabricantes, como a GM, estão mudando para se concentrar na produção de veículos elétricos para se alinhar às iniciativas verdes. O mercado de energia não irá acabar, mas a fonte de energia está mudando de uma economia de combustível para uma elétrica. A inteligência artificial deve ser vista de maneira semelhante, onde a inteligência artificial mudará a demanda de tarefas para outras áreas. Será necessário haver pessoas para ajudar a gerenciar esses sistemas à medida que os dados aumentam e mudam todos os dias. Ainda haverá necessidade de recursos para resolver problemas mais complexos dentro dos setores de mercado que são mais prováveis de serem afetados por mudanças na demanda de tarefas, como atendimento ao cliente. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho ajudará os indivíduos na transição para essas novas áreas de demanda do mercado.
Privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os legisladores fizessem mais avanços aqui nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais de pessoas na European Union and European Economic Area, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, alguns estados estão desenvolvendo políticas, como o California Consumer Privacy Act (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados. Essa legislação recente forçou as empresas a repensar como armazenam e usam dados de identificação pessoal (PII). Como resultado, os investimentos em segurança se tornaram uma prioridade cada vez maior para as empresas, à medida que buscam eliminar quaisquer vulnerabilidades e oportunidades de inspeção, hacking e ataques cibernéticos.
Casos de preconceito e discriminação em vários sistemas inteligentes levantaram muitas questões éticas relacionadas ao uso da inteligência artificial. Como podemos nos proteger contra preconceito e discriminação quando os próprios dados de treinamento podem levar ao preconceito? Embora as empresas normalmente sejam bem-intencionadas em relação aos seus esforços de automação, a Reuters (link externo à IBM) destaca algumas das consequências imprevistas da incorporação de IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon, involuntariamente tendenciou candidatos a emprego em potencial por gênero para funções técnicas abertas e, no final das contas, tiveram que descartar o projeto. Conforme eventos como esses vêm à tona, a Harvard Business Review (link externo à IBM) levantou outras questões pontuais sobre o uso de IA nas práticas de contratação, como quais dados deve-se ser capaz de usar ao avaliar um candidato para uma função.
O preconceito e a discriminação também não se limitam à função de recursos humanos, isto pode ser encontrado em uma série de aplicativos, desde software de reconhecimento facial a algoritmos de mídia social.
À medida que as empresas se tornam mais conscientes dos riscos da IA, elas também se tornam mais ativas nessa discussão em torno da ética e dos valores da IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, compartilhou que a IBM encerrou seus produtos de reconhecimento facial e análise de propósito geral IBM, enfatizando que “a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo tecnologia de reconhecimento facial oferecida por outros fornecedores, para inspeção em massa, discriminação racial, violações de direitos humanos básicos e liberdades ou qualquer propósito que não seja consistente com nossos valores e Princípios de confiança e transparência”.
Para saber mais sobre isso, verifique o blog de políticas da IBM, relatando seu ponto de vista sobre "Uma abordagem de regulamentação de precisão para controlar exportações de tecnologia de reconhecimento facial".
Uma vez que não há legislação significativa para regular as práticas de IA, não existe um mecanismo real de aplicação para garantir que a IA ética seja praticada. Os incentivos atuais para que as empresas sigam essas diretrizes são as repercussões negativas de um sistema de IA antiético nos resultados financeiros. Para preencher a lacuna, estruturas éticas surgiram como parte de uma colaboração entre especialistas em ética e pesquisadores para governar o desenvolvimento e distribuição de modelos de IA na sociedade. No entanto, no momento, eles servem apenas para orientar, e a pesquisa (link externo à IBM) (PDF, 984 KB) mostra que a combinação de responsabilidade distribuída e falta de previsão das consequências potenciais não conduz necessariamente à prevenção de danos à sociedade.