Cómo instalar Gemma3 en Google Colab.

Cover Image for Cómo instalar Gemma3 en Google Colab.
Santiago Giraldo
Santiago Giraldo

Python | Gemma3 | LLM | ollama | Colab

  1. Definir una gpu en el notebook.

  2. Actualizar el linux de la máquina virtual, instalar pcutils e instalar la api de ollama

!sudo apt update
!sudo apt install -y pciutils
!curl -fsSL https://ollama.com/install.sh | sh
  1. Crear una función server para que no se bloque el código cuando se utilice:

import threading
import subprocess
import time

def run_ollama_serve():
    Try:
        subprocess.Popen(["ollama", "serve"])
    except Exception as e:
        print(f"Error starting Ollama: {e}")

thread = threading.Thread(target=run_ollama_serve)
thread.start()
time.sleep(5)  # Allow service to initialize

  1. Se descarga Gemma3:
!ollama run gemma3:1b

Seleccioné el modelo de 1 billón de parámetros. Sí se elimina el “:1b” de la instrucción se descarga por defecto el modelo de 4 billones de parámetros.

  1. Se instala langchain para ollama:
!pip install langchain-ollama
  1. Para validar si el modelo funciona se escribe la siguiente función:
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama.llms import OllamaLLM
from IPython.display import Markdown
template = """
  Question{question}
  Answer: Let's think step by step.
  """
prompt = ChatPromptTemplate.from_template(template)
model = OllamaLLM(model="gemma3:1b")
chain = prompt | model
display(Markdown(chain.invoke({"question": "What is the meaning of life according to the Dead Milkmen?"})))

Tech stack: Python · LLM · Ollam · Langchain · AI