Følgende artikel hjælper dig med: Microsofts præsident, Brad Smith, skitserer nøglemål for opbygningen af grundlaget for ansvarlig kunstig intelligens

Microsofts præsident Brad Smith offentliggjorde en blogindlæg torsdag og understregede vigtigheden af ansvarlig AI.
Han fremhævede virksomhedens tro på, at kunstig intelligens (AI) har potentialet til at ændre verden til det bedre, men understregede behovet for, at udviklere og organisationer sikrer, at AI-systemer udvikles og bruges etisk. Blogindlægget diskuterede store sprogmodellers rolle, såsom ChatGPT, i at forme fremtiden for kunstig intelligens og understregede behovet for nøje overvejelse af deres indvirkning på samfundet.
Efterhånden som etiske spørgsmål i kunstig intelligens og brugen af ChatGPT kommer frem, bemærkede Smith, at sprogmodeller er blevet trænet på enorme mængder data, og at det er vigtigt at sikre, at de ikke opretholder skadelige skævheder og unøjagtigheder.
Ifølge et studie af Koch, Denton, Hanna og Foster kommer mere end 50 % af det datasæt, som AI trænes på, fra 12 institutioner, hvoraf de fleste er placeret i USA. Dette udelader datasæt fra Afrika, Asien og Sydamerika, hvilket fører til opretholdelsen af vestlige etnocentriske kulturelle skævheder.
Ironisk nok trænes ChatGPT af folk fra disse regioner, kendt som det globale syd. Meget af annotering, indholdsmoderering, eksperimentering og test af invasive AI-apps er udført i Global South-landehvor arbejdere betales så lavt som 11 øre i timen.
Microsoft understregede sit engagement i ansvarlig AI og fremhævede dets seneste initiativer, herunder oprettelsen af Aether Committee i 2017 med forskere, ingeniører og politiske eksperter for at fokusere udviklingen af værktøjer til at opdage og adressere skævhed i AI-systemer. Virksomheden har også opdateret sin ansvarlig AI-ramme sidste år.
Virksomheden opfordrede også andre organisationer og enkeltpersoner til at prioritere ansvarlig AI og arbejde sammen for at skabe en mere retfærdig fremtid. Smith skitserede tre hovedmål:
- Sikre, at AI bygges og bruges ansvarligt og etisk. Dette inkluderer demokratiske lovgivningsprocesser for at deltage i samtaler om AI-beskyttelse under loven, såvel som behovet for resultatfokuserede og holdbare AI-regler, der er interoperable og adaptive.
- Fremme international konkurrenceevne og national sikkerhed med kunstig intelligens. Det betyder, at man anerkender den rolle, som USA og andre nationer, der er forpligtet til demokratiske værdier, spiller for at opretholde teknologisk lederskab. Med kombinationen af OpenAI og Microsoft og DeepMind inden for Google er USA godt placeret til at fastholde teknologisk lederskab,” skrev Smith i blogindlægget.
- Sikring af, at kunstig intelligens tjener samfundet bredt, styrker arbejdere og studerende og fremmer retfærdig og inklusiv økonomisk vækst; håndtering af klimakrisen og fremme af udviklingen af ren energiteknologi.
Ved at skitsere sine nøglemål for ansvarlig AI slutter Microsoft sig til institutioner som The Collaborative AI Responsibility Lab (CAIR Lab) – en del af Center for Governance and Markets ved University of Pittsburgh – for at øge adoptionen af ansvarlig AI ved at kombinere forskning med aktivisme.