de Takeshi Numoto, Vicepreședinte Executiv și Director de Marketing
Pe măsură ce inteligența artificială avansează, cu toții avem un rol important de jucat pentru a debloca impactul pozitiv al AI pentru organizațiile și comunitățile din întreaga lume. De aceea, ne concentrăm pe a ajuta clienții să utilizeze și să construiască o inteligență artificială de încredere, adică o inteligență artificială securizată, sigură și privată.
La Microsoft, ne-am angajat să asigurăm o Inteligență Artificială de încredere și să dezvoltăm tehnologii de suport de top în industrie. Angajamentele noastre și capacitățile pe care le dezvoltăm merg mână în mână pentru a ne asigura că dezvoltatorii și clienții noștri sunt protejați la fiecare pas.
Bazându-ne pe angajamentele noastre, astăzi anunțăm noi funcționalități de produs pentru a consolida securitatea, siguranța și confidențialitatea sistemelor AI.
Securitate. Securitatea este prioritatea noastră la Microsoft, iar inițiativa noastră extinsă Secure Future (SFI) subliniază angajamentele la nivel de companie și responsabilitatea pe care o simțim de a ne face clienții mai siguri. Săptămâna aceasta am publicat primul nostru Raport de progres SFI, care prezintă noutățile legate de organizația noastră, modul de conducere, tehnologie și operațiuni. Acest lucru respectă angajamentul nostru de a acorda prioritate securității . În plus față de și este bazat pe trei principii: securitate prin design, securitate în mod implicit și operațiuni sigure. În plus față de , Microsoft Defender și Purview, serviciile noastre de AI includ controale de securitate fundamentale, cum ar fi funcții integrate care ajută la prevenirea atacurilor prin atacuri de tip prompt injectionsși a încălcărilor drepturilor de autor. Pe baza acestora, anunțăm două noi funcționalități:
- Evaluări în Azure AI Studio pentru a sprijini estimările de riscuri.
- Microsoft 365 Copilot va oferi transparență în căutările web pentru a ajuta administratorii și utilizatorii să înțeleagă mai bine modul în care căutarea web îmbunătățește răspunsul Copilot. O variantă care va fi disponibilă în curând.
Capacitățile noastre de securitate sunt deja utilizate de clienți. Cummins, o companie cu 105 ani experiență în domeniu, cunoscută pentru producția de motoare și dezvoltarea de tehnologii de energie curată, a apelat la Microsoft Purview pentru a-și consolida securitatea și guvernanța datelor prin automatizarea clasificării, etichetării și marcării datelor.Cummins, o companie cu 105 ani experiență în domeniu, cunoscută pentru producția de motoare și dezvoltarea de tehnologii de energie curată, a apelat la Microsoft Purview pentru a-și consolida securitatea și guvernanța datelor prin automatizarea clasificării, etichetării și marcării datelor.
EPAM Systems, o companie de inginerie software și consultanță în afaceri, a implementat Microsoft 365 Copilot pentru 300 de utilizatori datorită protecției datelor pe care o primesc de la Microsoft. J.T. Sodano, Senior Director of IT, a împărtășit că „am fost mult mai încrezători în Copilot pentru Microsoft 365, în comparație cu alte modele lingvistice mari (LLM), deoarece știm că aceleași politici de protecție a informațiilor și datelor pe care le-am configurat în Microsoft Purview funcționează pentru Copilot.”
Siguranță. Incluzând atât securitatea, cât și confidențialitatea, principiile mai largi ale Microsoft Responsible AI, stabilite în 2018, continuă să ghideze modul în care construim și implementăm AI în siguranță, în întreaga companie. În practică, acest lucru înseamnă construirea, testarea și monitorizarea adecvată a sistemelor pentru a evita comportamentele nedorite, cum ar fi conținutul dăunător, prejudecățile, utilizarea abuzivă și alte riscuri neintenționate. De-a lungul anilor, am făcut investiții semnificative în construirea structurii de guvernanță, a politicilor, instrumentelor și a proceselor necesare pentru a susține aceste principii și pentru a construi și implementa AI în siguranță. La Microsoft, ne angajăm să împărtășim clienților noștri lecțiile noastre în această călătorie privind susținerea principiilor de inteligență artificială responsabilă. Folosim propriile bune practici și ce am învățat de-a lungul timpului pentru a le oferi organizațiilor capabilități și instrumente pentru a construi aplicații AI care împărtășesc aceleași standarde înalte pe care ne străduim să le atingem.
Astăzi, împărtășim noi funcționalități pentru a ajuta clienții să urmărească beneficiile AI, atenuând în același timp riscurile:
- O funcție de corecție implementată în Microsoft Azure AI Content Safety, care ajută la corectarea în timp real a problemelor înainte ca acestea să fie vizibile utilizatorilor.
- Securitatea conținutului embedded, care le permite clienților să încorporeze Azure AI Content Safety pe dispozitive. Acest aspect este important în situațiile în care conexiunea la cloud poate fi intermitentă sau indisponibilă pe aceste dispozitive.
- Funcționalități noi în Azure AI Studio pentru a ajuta clienții să evalueze calitatea și relevanța rezultatelor, precum și frecvența cu care aplicația AI generează conținut protejat.
- Detectarea materialelor protejate pentru cod este acum în versiune preliminară în Azure AI Content Safety pentru a ajuta la detectarea conținutului și a codului preexistent. Această caracteristică îi ajută pe dezvoltatori să exploreze codul sursă public în repositoarele GitHub, încurajând colaborarea și transparența, permițând în același timp decizii de codare mai informate.
Utilizatori din toate industriile folosesc deja soluțiile Microsoft pentru a construi aplicații AI mai sigure și mai de încredere. De exemplu, Unity, o platformă pentru jocuri 3D, a folosit Microsoft Azure OpenAI Service pentru a construi Muse Chat, un asistent AI care facilitează dezvoltarea jocurilor. Muse Chat folosește modele de filtrare a conținutului în Azure AI Content Safety pentru a asigura utilizarea responsabilă a software-ului. În plus, ASOS, un retailer de modă din Marea Britanie, cu aproape 900 de parteneri, a folosit aceleași filtre de conținut integrate în Azure AI Content Safety pentru a susține interacțiuni de calitate superioară printr-o aplicație AI care ajută clienții să găsească modele noi.
Vedem impactul și în spațiul educațional. Școlile publice din New York au încheiat un parteneriat cu Microsoft pentru a dezvolta un sistem de chat sigur și adecvat contextului educațional, pe care îl testează acum în școli. Departamentul pentru Educație din Australia de Sud a adus în mod similar AI generativă în sălile de clasă prin EdChat, care se bazează pe aceeași infrastructură pentru a asigura utilizarea în siguranță pentru elevi și profesori. Departamentul pentru Educație din Australia de Sud a adus în mod similar AI generativă în sălile de clasă prin EdChat, care se bazează pe aceeași infrastructură pentru a asigura utilizarea în siguranță pentru elevi și profesori.
Confidențialitate. Datele stau la baza inteligenței artificiale, iar prioritatea Microsoft este de a se asigura că datele clienților sunt protejate și conforme prin principiile de confidențialitate pe termen lung , printer care se numără controlul utilizatorilor, transparența și protecțiile legale și de reglementare. Pentru a construi pe acest lucru, anunțăm:
- Confidențialitatea procesului de inferență în modul preview în modelul Azure OpenAI Service Whisper, astfel încât clienții să poată dezvolta aplicații AI generative care acceptă confidențialitatea verificabilă de la un capăt la altul. Prin confidențialitatea procesului de inferență al AI confidențială ne asigurăm că datele sensibile ale clienților rămân în siguranță atunci când modelul AI antrenat face predicții sau decizii bazate pe date noi. Acest lucru este deosebit de important pentru industriile extrem de reglementate, precum asistența medicală, serviciile financiare, comerțul cu amănuntul, producția și energia.
- Lansarea oficială a mașinilor virtuale Azure cu GPU-uri NVIDIA H100 Tensor Core, care le permite clienților să securizeze datele direct pe GPU. Aceasta extinde soluțiile noastre de calcul confidențial, asigurându-se că datele clienților rămân criptate și protejate într-un mediu sigur, astfel încât nimeni să nu poată accesa informațiile sau sistemul fără permisiune.
- Bazele de date Azure OpenAI pentru UE și SUA vor fi disponibile în curând și se bazează pe rezidența datelor existente furnizată de Azure OpenAI Service, facilitând gestionarea procesării și stocării datelor în aplicațiile AI generative. Această nouă funcționalitate le oferă clienților flexibilitatea de a scala aplicațiile AI generative în toate regiunile Azure dintr-o zonă geografică, oferindu-le în același timp controlul procesării și stocării datelor în UE sau SUA. pentru UE și SUA vor fi disponibile în curând și se bazează pe rezidența datelor existente furnizată de Azure OpenAI Service, facilitând gestionarea procesării și stocării datelor în aplicațiile AI generative. Această nouă funcționalitate le oferă clienților flexibilitatea de a scala aplicațiile AI generative în toate regiunile Azure dintr-o zonă geografică, oferindu-le în același timp controlul procesării și stocării datelor în UE sau SUA.
Crește interesul clienților pentru calculul și pentru GPU-urile confidențiale, inclusiv din partea furnizorului de securitate a aplicațiilor F5, care utilizează Azure Confidential VMs cu GPU-uri NVIDIA H100 Tensor Core pentru a construi soluții avansate de securitate bazate pe inteligență artificială, asigurând în același timp confidențialitatea datelor analizate de modelele sale. Crește interesul clienților pentru calculul și pentru GPU-urile confidențiale, inclusiv din partea furnizorului de securitate a aplicațiilor F5, care utilizează Azure Confidential VMs cu GPU-uri NVIDIA H100 Tensor Core pentru a construi soluții avansate de securitate bazate pe inteligență artificială, asigurând în același timp confidențialitatea datelor analizate de modelele sale. Și banca multinațională Royal Bank of Canada (RBC) a integrat Azure confidential computing în propria platformă pentru a analiza datele criptate, păstrând în același timp confidențialitatea clienților. Odată cu disponibilitatea generală a mașinilor virtuale confidențiale Azure cu GPU-uri NVIDIA H100 Tensor Core, RBC poate utiliza acum aceste instrumente AI avansate pentru a lucra mai eficient și pentru a dezvolta modele AI mai puternice.
Mai multe obiective îndeplinite cu Microsoft Trustworthy AI
Cu toții avem nevoie și ne așteptăm la o inteligență artificială în care să putem avea încredere. Am văzut ce este posibil atunci când oamenii sunt împuterniciți să utilizeze AI într-un mod sigur și de încredere, de la îmbogățirea experiențelor angajaților și remodelarea proceselor de business remodelarea proceselor de business afa până la reinventarea implicării clienților și reimaginarea vieții ne de zi cu zi. Cu noi funcționalități capabili care îmbunătățesc securitatea, siguranța și confidențialitatea, continuăm să le permitem clienților să folosească și să construiască soluții AI de încredere care ajută fiecare persoană și organizație de pe planetă să realizeze mai mult.
Angajamente
- Securitate: Inițiativa Viitor Securizat
- Confidențialitate: Centrul de autorizare
- Siguranță: Principii AI responsabile
Funcții
- Securitate: Securitate pentru AI
- Confidențialitate: Azure Confidential Computing
- Siguranță: Siguranța conținutului Azure AI