Google Gemini es un sistema de conversación AI muy potente, que puede generar respuestas fluidas y naturales en cuestión de segundos al ingresar una palabra clave. Gemini puede proporcionar una asistencia inteligente asombrosa, mejorando enormemente la eficiencia y creatividad del trabajo humano. Este documento describe principalmente el proceso de uso de la API de Finalización de Chat de Gemini, que nos permite utilizar fácilmente la función de conversación oficial de Gemini.Documentation Index
Fetch the complete documentation index at: https://docs.acedata.cloud/llms.txt
Use this file to discover all available pages before exploring further.
Proceso de Solicitud
Para usar la API de Finalización de Chat de Gemini, primero puedes ir a la página de API de Finalización de Chat de Gemini y hacer clic en el botón “Adquirir” para obtener las credenciales necesarias para la solicitud:
Si aún no has iniciado sesión o registrado, serás redirigido automáticamente a la página de inicio de sesión que te invita a registrarte e iniciar sesión. Después de iniciar sesión o registrarte, serás devuelto automáticamente a la página actual.
En la primera solicitud, se te otorgará un crédito gratuito, lo que te permitirá usar esta API de forma gratuita.
Uso Básico
A continuación, puedes completar el contenido correspondiente en la interfaz, como se muestra en la imagen:
authorization, que puedes seleccionar directamente en la lista desplegable. El otro parámetro es model, que es la categoría del modelo que elegimos usar del sitio web de Gemini; aquí tenemos principalmente 6 tipos de modelos, los detalles se pueden ver en los modelos que proporcionamos. El último parámetro es messages, que es un array de las palabras de pregunta que ingresamos; es un array que permite subir múltiples palabras de pregunta al mismo tiempo, cada palabra de pregunta contiene role y content, donde role indica el rol del preguntador, y hemos proporcionado tres identidades: user, assistant, system. El otro content es el contenido específico de nuestra pregunta.
También puedes notar que a la derecha hay un código de llamada correspondiente generado, puedes copiar el código y ejecutarlo directamente, o simplemente hacer clic en el botón “Probar” para realizar una prueba.

id, el ID de la tarea de conversación generada, utilizado para identificar de manera única esta tarea de conversación.model, el modelo seleccionado del sitio web de Gemini.choices, la información de respuesta que Gemini proporciona para las palabras de pregunta.usage: estadísticas sobre el uso de tokens para esta pregunta y respuesta.
choices se incluye la información de respuesta de Gemini, donde choices contiene la información específica de la respuesta de Gemini, como se puede ver en la imagen.

content dentro de choices contiene el contenido específico de la respuesta de Gemini.
Respuesta en Flujo
Esta interfaz también admite respuestas en flujo, lo cual es muy útil para la integración en la web, ya que permite mostrar el efecto de escritura palabra por palabra. Si deseas que la respuesta se devuelva en flujo, puedes cambiar el parámetrostream en el encabezado de la solicitud a true.
El cambio se muestra en la imagen, pero el código de llamada necesita tener los cambios correspondientes para admitir respuestas en flujo.

stream a true, la API devolverá los datos JSON correspondientes línea por línea, y a nivel de código, necesitamos hacer los cambios necesarios para obtener los resultados línea por línea.
Código de ejemplo de llamada en Python:
data en la respuesta, y el choices dentro de data es el contenido de la respuesta más reciente, que coincide con el contenido presentado anteriormente. choices es el contenido de respuesta nuevo, que puede ser integrado en su sistema según los resultados. Al mismo tiempo, el final de la respuesta en flujo se determina según el contenido de data; si el contenido es [DONE], significa que la respuesta en flujo ha terminado por completo. El resultado de data tiene varios campos, que se describen a continuación:
id, el ID que genera la tarea de conversación actual, utilizado para identificar de manera única esta tarea de conversación.model, el modelo seleccionado del sitio web de Gemini.choices, la información de respuesta proporcionada por Gemini en respuesta a la consulta.
Diálogo en múltiples rondas
Si desea integrar la función de diálogo en múltiples rondas, necesita cargar múltiples consultas en el campomessages, ejemplos específicos de múltiples consultas se muestran a continuación:

choices contiene información consistente con el contenido básico utilizado, que incluye el contenido específico de las respuestas de Gemini a múltiples diálogos, lo que permite responder a las preguntas correspondientes basadas en múltiples contenidos de diálogo.
Modelo multimodal Gemini-3.0
Ejemplo de solicitud:Modelo multimodal Gemini-3.1
Gemini 3.1 Pro es la versión mejorada de Gemini 3.0 Pro, con un modelo subyacente degemini-3.1-pro-preview, que también soporta entradas multimodales como texto, imágenes y videos, y tiene una capacidad de razonamiento y comprensión más fuerte. La forma de uso es completamente idéntica a la de Gemini 3.0 Pro, solo es necesario reemplazar el parámetro model por gemini-3.1-pro.
Ejemplo de solicitud:
Manejo de errores
Al llamar a la API, si se encuentra con un error, la API devolverá el código de error y la información correspondiente. Por ejemplo:400 token_mismatched: Solicitud incorrecta, posiblemente debido a parámetros faltantes o inválidos.400 api_not_implemented: Solicitud incorrecta, posiblemente debido a parámetros faltantes o inválidos.401 invalid_token: No autorizado, token de autorización inválido o faltante.429 too_many_requests: Demasiadas solicitudes, ha superado el límite de tasa.500 api_error: Error interno del servidor, algo salió mal en el servidor.

