wrapper

logo min

pten
Daniel Guerreiro

Daniel Guerreiro

Potencial de transformação da IA é elevado

À medida que prolifera o uso de tecnologias relacionadas com IA, rapidamente se ultrapassam paradigmas tradicionais de governo organizacional e controlos que norteiam o seu uso.

Os reguladores externos têm muita dificuldade em acompanhar a mudança e as empresas debatem-se com necessidades crescentes de demonstrar que estão dotadas de controlos adequados e transparentes, que podem evoluir tão rapidamente quanto a própria tecnologia.

É sabido que sem uma governação e referenciais éticos robustos, existem sérios riscos operacionais na utilização de IA. Os sistemas e bases de dados podem falhar, ser deliberada ou acidentalmente corrompidos e, até, adoptar preconceito humano. Estas falhas têm ramificações profundas no que respeita a segurança, processo de tomada de decisão e sua credibilidade, podendo levar a disputas e litigância, perdas financeiras e acrescido escrutínio regulatório.

No seio das organizações as lideranças necessitam confiar que os seus sistemas de IA estão a funcionar fiavelmente na forma pretendida, bem como confiar nos dados usados. Contudo, esta continua a ser uma área de preocupação. Efectivamente, numa pesquisa recente da EY, cerca de metade (48%) dos inquiridos referiram a falta de confiança na qualidade e fiabilidade dos dados como o principal desafio para a adopção de IA de forma mais abrangente nas suas organizações.

Simultaneamente, as organizações necessitam também de construir as bases de confiança com stakeholders externos. Por exemplo, clientes, fornecedores, parceiros necessitam de ter confiança na IA da organização, pois necessitam de saber quando estão a interagir com a IA, que tipo de dados estão a ser usados e com que propósito.

Adicionalmente, querem garantias que os sistemas de IA não recolhem, retêm ou divulgam informação confidencial sem o seu consentimento explícito e informado. Quando duvidem do propósito, integridade e segurança das tecnologias, ficarão relutantes (e em última instância recusarão) partilhar os dados em que assenta a inovação de amanhã.

Para serem aceites pelos utilizadores, tanto internamente como externamente, os sistemas de IA devem ser compreensíveis, o que significa que os seus referenciais de decisão podem ser explicados e validados. Devem também ser robustamente seguros, mesmo perante as ameaças em contínua evolução.

Face ao exposto, é cada vez mais nítido que falhas na adopção de referenciais éticos de governação que gerem confiança na IA, irão limitar a capacidade das organizações em colher o potencial destas tecnologias para sustentar o seu crescimento futuro.

Daniel Guerreiro, Partner Ey, Assurance 

Read more...

O Valor Económico

É o órgão de eleição para a divulgação da sua marca entre os públicos mais exigentes, designadamente decisores políticos e empresários, profissionais médios e estudantes universitários. Pauta-se pelo rigor da informação e da análise dos temas relevantes que afectam directa ou indirectamente a economia angolana e internacional e afirma-se como espaço de promoção de ideias, através da opinião e do debate.

NewsLetter

Contactos

Para anunciar no Valor Económico, entre em contacto connosco.

Rua Fernão Mendes Pinto, Nº 35, Bairro Alvalade,
Distrito da Maianga – Luanda.

Comercial Telemóveis:

(Geovana Fernandes):

+244 941 784 792

(Arieth Lopes)

+244 941 784 791

Telefones:
+244 222 320510 / 222 320514

comercial@gem.co.ao