Tal y como era de esperar, China también quiere competir en el pujante mercado tecnológico de la Inteligencia Artificial. De hecho, Ernie IA es una iteración creada en el país mandarín cuyos creadores afirman que cuenta con unas cualidades superiores a la IA más popular de los últimos tiempos, ChatGPT, algo que no cualquiera podría decir.
La compañía de China, Baidu, es la creadora de Ernie IA, una iteración que, a niveles de desarrollo, estaría al nivel, o incluso habría superado, las capacidades actuales de ChatGPT, a pesar de su reciente salto a GPT-4. No cabe duda de que una IA de ese nivel supondría un gran golpe sobre la mesa de la industria tecnológica.
Ernie AI, la Inteligencia Artificial de Baidu
Baidu, conocida por ser la “Google” de China, ha estado desarrollando también una Inteligencia Artificial capaz de ofrecer grandes resultados, según el fundador de la compañía, Robin Li. “Ernie no es inferior en ningún aspecto a GPT-4”, afirma el propio Li. De hecho, según estudios internos, la versión anterior de Ernie, también era superior a GPT-4 en muchas áreas.
De esta manera, no cabe duda de que Ernie podría entrar con fuerza en el ecosistema tecnológico de China, el cual suele optar por sistemas de su país frente a competencia extranjera. Pero si además su IA es la más eficaz, no tendrían ningún motivo para mirar otros sistemas que haya en el mercado, especialmente en un ámbito más limitado por el lenguaje, como el de China.
La carrera por liderar el nicho de las IA’s
De esta manera, la compañía china Baidu se suma oficialmente a la larga lista de grandes empresas tecnológicas que luchan por alcanzar lo más rápido posible la meta de crear una IA capaz de revolucionar el mundo. Junto a Baidu, también compiten empresas como Microsoft (tanto de forma directa, como a través de su filial Open AI), Google, Slack, Meta, y muchas más.
Sin embargo, todo avance en materia de IA también tiene sus riesgos. Y es que, los avances en este ámbito también implican peligros reales para todo tipo de usuarios. Despidos masivos en procesos de automatización, delitos como los “deepfakes” (desnudar personas a través de simulaciones realistas creadas por IA), creación de pruebas falsas, suplantaciones de identidad, y mucho más. Es importante apelar a la responsabilidad de los usuarios, pero también a la de los creadores para dificultar este tipo de perjuicios sociales.