Bing utilizza Google e visualizza i risultati di ricerca 10 volte più velocemente

Sommario:

Video: 10 TRUCCHI per RICERCHE AVANZATE su GOOGLE 2024

Video: 10 TRUCCHI per RICERCHE AVANZATE su GOOGLE 2024
Anonim

L'hardware specializzato di Microsoft per il calcolo dell'IA si chiama Brainwave ed è stato creato in modo tale da eseguire una rete neurale il più velocemente possibile con la minima latenza.

La società ha annunciato che da quando utilizza Brainwave è riuscita a ottenere prestazioni dieci volte più veloci dall'intelligenza artificiale di Bing. Il modello di apprendimento automatico fondamentalmente alimenta la funzionalità del motore di ricerca.

L'obiettivo di Microsoft che dovrebbe essere raggiunto tramite Brainwave è fornire previsioni AI in tempo reale per app come le ultime funzionalità di Bing.

Bing riceve nuove funzionalità

Microsoft offre anche a Bing alcune nuove funzionalità come queste e le più significative da menzionare offrono più risposte alle domande pratiche e supporto per la definizione di parole che non vengono utilizzate così frequentemente quando gli utenti passano il puntatore del mouse su di esse. Queste funzionalità sono alimentate da Brainwave.

Microsoft utilizza FPGA di Intel per alimentare il calcolo AI

Gli FPGA sono una sorta di canvas vuoti che gli sviluppatori possono usare quando vogliono distribuire vari circuiti inviando nuovo software. Ciò comporta un potente mix di prestazioni e programmabilità.

Ora, Microsoft può fare di più che creare modelli più veloci con l'hardware; l'azienda può anche costruire sistemi di intelligenza artificiale più sofisticati. Ad esempio, il Turing Prototype 1 di Bing è ora dieci volte più complesso e più veloce grazie alla capacità di calcolo aggiunta tramite Brainwave.

Gli FGA implementati da Microsoft sono dotati di processori di segnali digitali dedicati integrati per la matematica AI complessa.

Il principale vantaggio degli FPGA

Il vantaggio più significativo degli FPGA rispetto alle GPU (che è diventata la scelta preferita per il calcolo AI) è che non richiedono un ampio utilizzo dei calcoli batch.

Un'innovazione chiave consente a Microsoft di ottenere risultati così positivi tramite FPGA è l'utilizzo di tipi di dati a virgola mobile a 8 e 9 bit che aumentano radicalmente le prestazioni.

I chip FPGA di Intel consentono a Bing di leggere e analizzare rapidamente miliardi di documenti in tutto il Web e fornire la migliore risposta alla tua domanda in meno di una frazione di secondo.

In effetti, gli FPGA di Intel ci hanno permesso di ridurre la latenza dei nostri modelli di oltre 10 volte, aumentando anche le dimensioni del nostro modello di 10 volte.

L'uso di FPGA per accelerare il calcolo dell'IA risale al 2012

Microsoft ha iniziato a utilizzare FPGA per migliorare la velocità di calcolo dell'IA oltre sei anni fa, quando il team Bing ha iniziato a utilizzare i chip. Tutto questo è un'ottima notizia anche per Intel. La società ha acquistato Altera, un produttore di FPGA nel 2015 e l'accordo da 16, 7 miliardi di dollari ha fornito a Intel la potenza necessaria per alimentare le esigenze di Microsoft fino ad oggi.

Non vediamo l'ora di vedere Brainwave disponibile tramite Microsoft Azure per offrire ai clienti la possibilità di distribuire i loro modelli.

Bing utilizza Google e visualizza i risultati di ricerca 10 volte più velocemente