La Comunidad WordPress Granada celebró una nueva meetup en una calurosa tarde de junio en el Digital Business Hub de la Cámara de Comercio de Granada. En esta ocasión, el encuentro giró en torno a un tema muy actual: la inteligencia artificial local. La comunidad, formada por voluntarios apasionados por WordPress, organiza estos encuentros mensuales para compartir conocimientos y socializar, normalmente acompañados de una cerveza y conversación distendida.
El protagonista del día fue Jesús Yeste, un joven miembro que se estrenó como ponente tras haberse iniciado en la comunidad durante la WordCamp Granada del pasado octubre. Jesús ofreció una charla práctica y didáctica sobre el uso de IAs locales, como LM Studio y Ollama, destacando sus ventajas frente a las soluciones en la nube: privacidad, personalización y funcionamiento sin conexión a internet.
Durante la charla, Jesús explicó cómo instalar y configurar estas herramientas, qué modelos son más adecuados según el hardware disponible y cómo personalizar la IA para tareas concretas. Mostró también cómo crear asistentes especializados, por ejemplo, para ayudar a estudiantes o resolver problemas en WordPress, usando prompts personalizados y archivos de configuración. Además, presentó alternativas como Gemini para quienes no cuentan con equipos potentes.
La comunidad también anunció su próxima actividad: una meetup playera conjunta con WordPress Málaga el 18 de julio, patrocinada con chuletas argentinas, y adelantó que en otoño retomarán las actividades mensuales y asistirán a WordCamps como la de Galicia y Valencia.
En definitiva, fue un encuentro enriquecedor que mostró el potencial de la IA local al alcance de cualquier persona curiosa, en un ambiente cercano y colaborativo, fiel al espíritu de la Comunidad WordPress Granada.
Transcripción
Hola bienvenidos a esta calurosa tarde de vista de granada bienvenidos a la nueva mitad de comunidad WordPress de granada hoy además sobre un tema de moda pero antes de empezar con el tema de moda como veo también algunas caras nuevas os cuento WordPress granada que es una reunión mensual una comunidad de voluntarios y voluntarias que hacemos cositas para WordPress, por WordPress y porque nos gusta verlo y tomando una cervecita y charlar de cosas mundanas después de cada encuentro, ¿vale? Todo girar en torno a WordPress, pero bueno, siempre hay tangentes y temas que de alguna manera tienen que ver con tecnología, con software, con artículo online, con posiciones internautores, etcétera. Hoy estamos, bueno, yo hoy presento aquí como presentador, estuve viniendo simplemente como asistente. Hoy tenemos aquí a Jesús, Jesús Yeste, que es un miembro muy, muy joven de la comunidad WordPress, no solo por su edad, sino porque empezó, o sea, su primer contacto con la comunidad WordPress fue en la WordCamp de Granada de hace pocos meses, en octubre pasado. Y aquí lo tenemos ya, dando su primera charla en la comunidad. Así que esto es cantera, gente nueva que se va creando y súper encantado de que podamos compartir. Antes de seguir, agradecer de nuevo a la Cámara de Comercio que nos ceda este espacio en el Digital Business Hub de Granada. Porque la verdad es que es un espacio que nos da mucho juego, muchas posibilidades. Y así que muchísimas gracias, Cámara de Comercio. podéis contactar siempre con cualquier persona de la comunidad wordpress de granada pidiéndole el contacto aquí en el encuentro o en redes en www granada vale y en la web también que doble granada puntocom así que bueno antes de presentarlo simplemente digo esta es la mitad de junio, en julio, tendremos la última mitad de esta temporada, digamos, pero no va a ser aquí en Granada, organizado solamente por gente de Granada, sino que la vamos a hacer en conjunto con la comunidad WordPress de Málaga. Vamos a hacer una mitad playera, así que os animo a que asistáis, será a mediados de julio, no sé si el 18. Vale, 18 de julio, por la tarde, mitad playera entre la comunidad WordPress de Málaga y Granada. Patrocinio de chuletas. A ver, podría haber patrocinio sardinas, pero no, va a haber patrocinio de chuletas bueno, que tampoco bueno, un espectador y carne argentina, bueno entonces ya está así que ya está, os emplazo a esta próxima convocatoria porque no podéis faltar, da igual el tema que sea, pero ya sabéis que una chuleta wordpressera viene de maravilla en verano, ¿vale? muy bien, y para terminar después del verano se retomarán más encuentros WordPress, tanto las meetups mensuales, que empezaremos en septiembre, como diferentes WordCamps, tanto a nivel nacional como internacional, pero concretamente en España tendremos la WordCamp de Galicia que será la primera que venga en octubre primer fin de semana octubre, correcto, y luego creo que viene WordCamp Valencia y quizás ya en Sevilla también algún otro encuentro en fin, ya se irán anunciando más cositas después del verano, ¿vale? Así que bueno, Jesús Yeste nos va a hablar hoy sobre inteligencia artificial, concretamente sobre cómo aprovechar la potencia de inteligencia artificial en nuestro propio equipo, en nuestro entorno local. Él usa la inteligencia, es estudiante de sistemas y dice que utiliza la inteligencia artificial para aprender. No para probar, pero bueno, eso ahora nos lo cuenta, ¿vale? Jesús, muchas gracias por estar aquí. Gracias por presentarme. Cuéntanos. Y pues efectivamente sí, lo utilizo mucho para aprender porque podemos utilizarla para que nos explique de varias formas para que podamos intentar entenderlo. Porque hay veces que queremos aprender algo y pues nos resulta complicado justo el material que estamos buscando no lo explica de la forma que nosotros lo hemos llegado a entender bien. O a lo mejor, por ejemplo, en mi caso hay algunas clases que con los maestros no me termino de entender, no lo entiendo cómo explican y le pido como ese refuerzo para que me lo explique de otra forma o me dé ejemplos para que viendo los ejemplos o analizando lo que me va dando, no cojo siempre el resultado que me da directo. Hay que analizar lo que te da para poder llevarlo a lo que nos interesa. Entonces, con los resultados que me va dando, voy avanzando poco a poco, analizando los resultados que me da y con eso voy aprendiendo. Ese es el uso que yo le doy más que nada a la guía local porque la puedo personalizar. Entonces, por si queréis, después de la charla, pedirme un documento que tengo detallado de la charla, en la cual explico cada punto que reflejo aquí. Se queda todo detallado, cómo instalar perfectamente LM Studio, os llaman, ¿vale? Todo va reflejado, así que cualquiera que lo quiera o lo necesita, únicamente, o me lo comentáis al terminar, yo lo mando. o si alguien quiere puede escribirme a la red que hay ahí y os lo mando sin ningún problema, debatir de algún tema sobre, no solamente de IA, también de cualquier cosa de informática, porque me encanta aprender y si queréis comentarme algo, por allí no hay ningún problema. Y también decir que me gustaría que fuera práctica, que todo el que quiera pueda participar y demás, ¿vale? Vale, una IA local, lo bueno que tiene es que tiene las ventajas de la IA y aparte también tiene de que tienes privacidad porque todos los datos que le pasáis, todo procesa dentro de nuestro equipo. ¿Qué es lo que pasa? Que tiene que tirar del hardware que tenemos. Normalmente tira mucho de gráfica y si no tenemos gráfica tira de CPU y de RAM. Entonces necesitamos tener un equipo bastante potente. Si queremos tener la privacidad, la capacidad de utilizarla sin conexión y aparte puedes personalizarla. En la práctica os voy a enseñar a cómo personalizar una IA para que nos ayude en el ámbito que nosotros necesitamos. vale vale, os vengo también a hablar sobre o llama y LM Studio vale, son dos formas de utilizar, ya local, vale una es más simple que otra más para principiantes y otra es un poco más compleja si queremos vincularla con otras aplicaciones, hacer que hagan funciones más complejas, por ejemplo podemos vincularla con N8N que nos analice una entrada de datos, lo que queramos. Y LM Studio es la versión más sencilla porque hay que instalarlo y nada más en la misma instalación podemos seleccionar el modelo que queramos utilizar. Entonces es como más sencilla porque nos lo da prácticamente todo hecho pero no podemos personalizar tanto como con Ollamas. Entonces en la práctica os voy a enseñar como coger un modelo de Ollamas y poder utilizarlo de forma más sencilla y personalizarlos vale para poder instalar o llama y el m estudio es totalmente sencillo nos vamos a la página oficial de ambas y como podéis ver aquí nos deja la opción de seleccionar el sistema operativo aquí en la parte de mac lin o windows le damos a descargar y en la parte del estudio y con el estudio nos pasa exactamente igual bastante intuitivo de siguiente siguiente siguiente y de todas formas está todo detallado en la documentación que tengo y también voy a enseñar ahora cómo hacer la instalación aquí aquí en el caso de o llama es bastante sencillo le damos a la página oficial le damos download nos dice los sistemas operativos y en cada caso seleccionamos pues para más que nos dice el instalador el in-unice el comando y en windows le damos a download y le damos a guardar y lo ejecutamos una vez que lo hayamos ejecutado se nos creará el servicio y nos saldrá aquí de que estar servicio siendo ejecutado cmd podemos comprobar que lo tenemos ya correctamente instalado haciendo un o llama el pero hay que escribir bien pues ya más todos los comandos que tiene o llamas vale como llama serve iniciamos el servicio de llama con el create que luego lo utilizaremos para crear el model file para personalizar la IA para lo que necesitamos con el show nos muestra la información del modelo con el run empezamos a utilizar un modelo con el stop lo podemos parar y así con los siguientes registros entonces vamos a hacer una prueba de instalación nos vamos aquí a modelos y en los modelos nos dice que tenemos la versión de visión que nos pueden ver imágenes, si le pasamos una imagen la podemos pedir que nos la resuma, que nos describa como es la imagen, de herramientas para poder vincularlo con otros modelos u otras aplicaciones modelos que procesan, que tienen pensamientos que tienen la capacidad de pensar, como por ejemplo el que tiene la versión de seleccionar el R1 y puede pensar y esta pues por lo visto no está funcionando supongo que ya lo solucionarán, si queremos buscar un modelo de IA concreto, pues buscamos más o menos el modelo que necesitamos y aquí viene la pregunta, ¿qué modelo necesitamos para lo que queremos hacer? La versión más fácil es nos buscamos otra idea y le preguntamos es que es la verdad, es la versión más fácil porque no podemos conocer todos los modelos que hay concretamente para cada cosa, no sé, es que estamos muy puestos entonces, no pongo nada más aquí quiero un modelo de Oyama para que me ayude con mis tareas de clase y no hay únicamente que decirle el modelo para lo que lo necesitamos sino tener que decirle el hardware que tenemos porque si no nos da un modelo que sea muy potente que nos va a venir muy bien pero mi ordenador a lo mejor no lo soporta entonces tenemos que decirle tengo 32 gigas de ram una rt x 3080 y un rating si estos hombres sabiéndolo si no si no lo sabe un recensivo 80 h y aquí ya pues lo ponemos aquí a trabajar y nos tendría que decir el modelo que nos recomienda entonces en este caso no ha dicho mistral vale y vamos a suponer que queramos estar administrar pues venimos aquí nuestra nos vendríamos al modelo y ya directamente aquí nos dice el comando para instalarlo entonces con este comando nos venimos aquí a la terminal y lo pegamos al darle a enter no lo empieza a cargar vale por ejemplo en este caso no lo tengo instalado y se me pone a descargar está el menos el ligerillo hay algunos que son de 40 50 me llega a descargar y lo quito porque si no vale para una gestión instalado automáticamente se nos va a ejecutar el modelo si queremos ver los modelos que tenemos tenemos que dar a la llama list y nos lista la lista de modelos que tenemos no entonces por ejemplo vamos a hacer pues llama RAN LLAMA2 LATES El modelo que tengo me lo empieza a ejecutar y cuando termine de cargarlo ya puedo empezar a pedirle lo que vaya necesitando A ver Dependiendo del modelo de ordenador que tenga, tarda más o tarda menos ¿Vale? Y ya pues yo puedo empezar aquí a pedirle pues por ejemplo como hago una un script para creación de usuarios en Linux le hago aquí la petición y empiezo aquí a ejecutármelo y dándome la respuesta luego también tengo que revisar por encima si lo que me ha dado tiene lógica funciona y demás porque también la guía se equivoca hay que gastar cuidado y no fiarnos siempre completamente de lo que hace la guía porque se equivoca menos que antes pero se equivoca y hay que gastar cuidado vale luego también está la opción de hacerlo con bueno para no tocar cable porque si no vale con el estudio lo mismo nos vamos a descargar nos detecta automáticamente el sistema operativo que tenemos al principio o llama así el otro el otro nos muestra desde el principio nos muestra como si fuera a gp nos muestra un tic y si queramos hacerlo con o llama que os lo iba a decir más adelante tenemos la opción de pinocchio vale y con pinocchio un momentillo de pausa si me comentó en la work cam málaga el que estuvo dando la charla que él a veces utiliza pinocchio utilizaba otra pero es que justo ahora no me acuerdo el nombre pero se visualiza igual entonces tener la opción de utilizar bolding que tú le da a estar te queda como otro servicio y te conecta mediante el navegador y lo puedes visualizar utilizar seleccionar el modelo La verdad que va bastante bien, pero yo al menos prefiero la terminal. Ya, te explico. Sí, pero estamos acostumbrados a no trabajar con ella muchas veces, pues a lo mejor no lo vemos muy. De hecho, yo lo digo por mí, por experiencia. Yo trabajo, por ejemplo, con Chasca Petet todo el rato, pero no trabajo con el terminal nunca. De hecho, ni en Mac he trabajado en mi vida con terminal. Entonces, por eso. Entonces, la versión que te recomiendo, si quieres empezar a utilizar poco a poco, y al local que utilices LM Studio, porque es muy sencillo de utilizar, intuitivo, no da prácticamente ningún problema, al menos yo el tiempo que lo llevo utilizando no hago ninguno. Y si te gusta más también el tema de utilizar un modelo personalizado en temas web, También lo voy a explicar ahora después cómo puedes conseguir que un modelo se especialice en lo que queremos. Pero ya, al utilizarlo en web, no tienes la ventaja de la privacidad que he mencionado antes ni el uso sin conexión. Pero también aprende. Estos modelos también los puedes aprender porque tú los puedes ayudar con el model file que he comentado antes, con la personalización, le puedes meter más información todavía. Puedes como, para decirlo, entrenarlo. No es lo mismo que lo entrenen millones de personas, porque te quedas tú, pero al menos te da la ventaja de que lo tienes tú en el local. Bueno, yo hablo de mi nicho, por ejemplo, a la hora de yo trabajar con la IA es muy cerrado mi nicho. Claro. Son figuras, un tipo de figura de juguete que se fabricó en los 80, entre los 80 y los 89, y entonces tengo que entregar ese tipo de esto y le pongo todo lo de esto. Es para hacerlo, lo utilizo muchísimo, sobre todo para hacer anuncios de ventas. Entonces, lo que te recomendaría en tu caso es que coja un modelo, por ejemplo, si quieres hacer el Ollama, haces la instalación, aunque al principio es un poquito complicado y luego lo utilizas con Vaulting, ¿vale? Te enseño cómo se vería y una vez que lo configuras, se te quería, con la especialización, porque la puedes decir, mira a mí la información de este año a este año. Busca la información y le pasa a lo mejor los enlaces a los documentos, los que quieras que lo veas. Puedes ir modificando el archivo y ampliando también. Y todo se te quedaría para ti. Entonces tienes la privacidad de que esos datos no se van a compartir. ¿Vale? Vale. Para la privacidad con los clientes, que no se da la filtración de datos de clientes tampoco. A ver si carga el este. A ver si no. Pero mientras tanto voy explicando lo de LM Studio. Y la instalación sería la misma. Prácticamente siguiente, siguiente, siguiente. LM Studio. Y el uso ya es bastante más sencillo. No hay terminal. y cuando queramos descargarnos un modelo por ejemplo yo tengo estos dos instalados podemos buscar el modelo que deseamos por ejemplo un historial vale y aquí claro y aquí nos salen los modelos para descargar los modelos estos son como variaciones de los modelos alguien que ha escogido el modelo principal que en esta sería ministral y lo ha adaptado para algo por ejemplo tengo un amigo que le gusta mucho el tema de dragones y manborda y se ha pillado un pelo de utilizarlo de narrador entonces le va diciendo todo lo que tiene y pues tiene ya el narrador a mí me gusta pero me parece chulo porque entonces pueden jugar todo y la guía va narrando entonces vale pues si queremos instalarlo sería darle a descargar empezaría la descarga y cuando termine se puede utilizar lo que vamos a utilizar un modelo que tengo ya descargado hay un poquitito más rápido y vamos a preguntarle exactamente lo mismo como creo un sprint para creación de usuarios en linux vale y mientras que va pensando ya podemos ver el que no ha creado antes y pues lo podríamos seguir preguntando yo una cosa que hago mucho es el cambio de una guía a otra una a otra y voy trabajando con varias a la vez para tener una trabajando otra trabajando y así el rendimiento mentido que sea por la placa gráfica que tenga nuestro utiliza sobre la gp1 lo que suele tirar lo que va mejor que todo tiene en gpu pero si no tiras de jefe porque anotan la tirada de la gpu y tiras de la cpu es que le mete una caña importante a la cpu es que yo estoy acostumbrado que el portátil se me queda 91 grados de mínimas ahora en verano viene muy bien para el frijito en verano le pongo el aire acondicionado en el cuarto porque si no es que tengo una calor ahí no sé si mis padres pusieron un aire acondicionado porque entraban ahí si esto parece un horno y ya aquí no la ha creado vale y es una forma más sencilla de utilizar una local no tenemos que utilizar la terminal que como he comentado no todo el mundo está acostumbrado a utilizar en terminal y para una versión bastante fácil luego aquí puedes crear otro chat por ejemplo va a preguntarle este luego aquí podemos crear carpetas y poner cuentas por ejemplo lo que estamos puntos son cosas de cuentas lo metemos por carpetas lo vamos ordenando y podemos ordenar para que todos los chats con la misma conversación los tengamos ordenado en un sitio por si quedamos luego viendo la conversación vale qué es lo que pasa que aquí donde pone contexto cuando le vamos preguntando va memorizando se va acordando de lo que hemos dicho hasta que cuando llegamos al 100% se le empiezan a olvidar cosas entonces le vamos preguntando y va consumiendo una serie de toques para cómo vaya aquí y al utilizar toque va llenando como por así decirlo esa memoria y si se llena pues lo dicho se le va olvidando cosas se puede modificar la apariencia y demás jesús la organización la hace global por el modelo por la ejecución del modelo va por chat el que el consumo la organización el consumo de tokens pues mira aquí con el m estudio vale se le puede cambiar el idioma pero se le puede cambiar también el consumo que tenía le puedes poner para que utilicen más recursos menos recursos que utilice consumo de calidad recursos se le puede cambiar a ver si para que quiera más o menos todo lo que utilice y así lo encuentro te lo enseño justo no pero que sí que con el estudio lo puedas cambiar o llamas mediante comando puedes decirle si quieres que te lo tire por cpu o por gpu sí pero me refería me refería al consumo de toques es decir la memoria o el contexto que tiene en memoria y almacenado el contexto va por chat o es un contexto global el contexto va por la conversación que tú tienes si tú por el independientes 2 cuando tú creas otro contexto nuevo sale aquí de que a cero y en este se ha quedado por 0.4 en el de antes se nos quedaba por 18 con 7 que va por cada chat que tú vas teniendo y no había pensado en un culado con base de datos aquí ya ha cargado el boldi vale como podéis ver es más intuitivo vale para poder configurarlo la primera vez porque no nos va a ver el servicio de o llama tenemos que darle a ajustar le damos a poderes locales y este no va a salir predeterminado quitado hay que activarlo y ya una vez que lo hayamos activado aquí podremos ya ver los modelos que no hemos instalado de llama ya los podremos ver nos habrá que yo llama entre muchas opciones que hay nos sale ya o llama y todos los modelos me salieron antes cuando hice el o llama list y los podemos seleccionar utilizar tan normal podemos pasarle audio podemos pasarle documentos y si como comenté antes el modelo de ian permite el vision que puede ver imágenes podemos subirle una imagen y empezar a trabajar la ventaja que tiene utilizar lo de el visión con el bol es que por ejemplo si lo queremos utilizar una imagen en terminal tenemos que pasarle el o llamar ram y pasarle la carpeta exacta donde está la imagen y la ruta completa de la imagen y que coja esa imagen y únicamente podremos trabajar en esa conversación con una imagen aquí la vamos subiendo las imágenes y podemos trabajando con él y dicho esto si no hay más preguntas empezamos con un poco de práctica para que veáis cómo lo podemos especializar yo y hace no mucho le hice un modelo de ella personalizado a mi cuñado que está en la eso vale pero yo se dice para que aprendiera no para que le hiciera los trabajos y le pasé un supuesto vale para que se pusieran en el contexto de que está estudiando en españa que tiene la asignatura le pedí que me dijera el listado de asignaturas que tiene y ahí se ve bien vale le pedí también que me dijera las asignaturas que le costaban más para recargar las que más le cuestan y que le pudiera reforzar más en esa asignatura no entonces qué es lo que hubiera sido mejor que a cada asignatura, le fuéramos puesto el libro que tiene, en plan de tengo el libro de Ayana tal y si ya le pudiéramos puesto también un enlace a ese libro, pues especificamos más la información donde tiene que buscarla, pero como en este caso no disponía de esa información, pues probamos con este supuesto, luego le pedí, esto a HGPT se lo pedí para que me creara un model file para especializar una IA, que como hemos visto antes, le he preguntado que el modelo nos conviene mejor, pues le pedí que cogiera, con ese contexto que le pasaba, modificara un model file, una línea, para que me dé la ayuda que necesito. Y el resultado que me dio fue que el lenguaje que utilizaba fuera sencillo, para que lo pudiera entender bien y no tuviera problemas para comprenderlo. Lo de dividir problemas complejos en pasos cortos es para utilizarlo de el divide y vencerá, de coger un problema que no resulta complejo y ir poco a poco con él, aquí reforzando las asignaturas que cuestan más, y con este PROM, Pues ya, si lo podemos pasar a la IA, ¿vale? Al OYAMA y nos lo coge. Pero claro, mi cuñado tiene un problema que su ordenador es malo. Entonces, ¿cómo puede correr una IA local si su ordenador es de bajos recursos? Pues luego le pedí que me lo personalizara para Gemini. Porque Gemini tiene la versión, una cosa buena que tiene, que si tú le pones el New Gem, es como tú puedes personalizar, puedes poner un nombre a la IA, por ejemplo, Tutor, y aquí metes la especialización, aquí metes el contexto, el contenido que nos ha dado aquí, pues se lo podemos agregar al otro apartado. Yo le pedí que me lo adaptara para Gemini, para que así cuando le pasara el modelo específico y demás, lo pudiera utilizar de forma web. Y este fue el resultado. Conseguimos que nos creara un tutor. ¿En qué puedes ayudar? Y ya como podemos ver, va cogiendo la información según el contexto que se le ha dado, según la información que se le ha pasado. Y pues ya si coge y le pregunta algo sobre lo que esté dando en aquella asignatura, mirará la información sobre lo que se ve en ese curso y sobre lo que tiene que haber. Está más específico a que, por ejemplo, si tú le preguntas algo y nos da resultados mucho más técnicos, en vez de decirnoslo como para alguien de tercero de la ESO, nos lo dice como alguien de la carrera de historia, va a ser más complejo y tampoco puede ser lo que esté buscando. O sea, que esté más detallado para alguien de universidad que para alguien de la ESO. Aquí estamos especificando para lo que lo queremos. Y si os parece, vamos a poner un supuesto ahora para hacer una prueba aquí de cómo hacer un modelo específico. Si os parece bien. Abrimos nuevos chat. Ponte en el siguiente supuesto. ¿Algún supuesto en el que queráis que nos pongamos? ¿O me invento uno sobre la marcha? vale le pasamos primero que se ponga en el contexto y ahora le ponemos de que queremos que se adapte a un modelo de llama que no lo especialice para que no ayuda a resolver problemas en wordpress vale y que se especialice en ello bueno aquí que escriba todo lo que quiera vale ahora necesito que con esto verdad inter parentesi plugin che ma le podemos poner a parte del problema con plugin tema con esto demás y nuevamente como vamos a tirar de un modelo local vamos a recargarle lo que tenemos porque si no nos vamos a poder tirar del modelo mis recursos son 32 Una RTX 3080. Una RTX 3080. Perdona, me interesa. Lo de la RTX 3080 sería la versión mobile, ¿no? Yo la que tengo es la versión de laptop. pero cuanto más información la red se te va a moldear más a ti cuanto más fina más se va a adaptar a ti y mejores resultados te va a dar si a lo mejor busca un modelo que se ajusta mucho a la 3080 y coge ese modelo tiene más recursos que la de versión de laptop y justo más justo en la versión normal y la de laptop no pues tendría que decir oye no me funciona coge otro modelo y habría que corregir eso entonces por ejemplo aquí ya no ha creado el model file vale que con copiarlo no abrimos un botón nota no lo pegamos no lo hace bastante sencilla como habéis visto en el anterior como le di bastante más contextos me lo ha podido adaptar bastante más vale pero con lo que le hemos dado no ha creado este de aquí vale y nos dice cómo crear el modelo vale el comando o llama que hay el nombre que la queremos dar el – efe y el archivo en el que tenemos él la configuración aquí lo bajamos abajo en ese día entonces tenemos que guardar el archivo como y pues hay que guardarlo con el mismo nombre model file porque si no nos va a pillar lo guardamos en escritorio guardar la esfera minúscula vale confirmamos que el nombre sea el mismo model file el punto txt y si te fijas aquí no pone el punto txt se lo pones con el punto txt acordaros que en el comando hay que ponérselo o crear el documento sin el punto txt que eso me ha causado mi problema que luego no te pilla el modelo luego no te pilla lo que tiene que pillar vale y ahora ya empieza a crearlo no descarga el modelo porque tiene que bajarse el modelo de internet y le mete también la configuración que le hemos metido en el model file está de aquí vale la cosa que tardará aquí lo suyo lo vamos a dejar descargando y como he dicho antes también está la opción de utilizarlo en modo web con gemini entonces decir nada pero al menos no tienes que utilizar tus propios recursos entonces ya que si no te puedes permitir utilizarlo local en tu propio equipo al menos tiene una idea personalizada para justo lo que necesita en modo web no tiene la ventaja de la privacidad no tiene la ventaja tampoco de la seguridad de que los datos tenés tú y tampoco tiene la ventaja de que lo puedo utilizar sin conexión si yo ahora cojo desconecto la conexión lo voy a poder seguir utilizando siempre y cuando que utilice un modelo local tanto con un llama como con el m estudio no voy a tener problemas de conexión pero con gemini chaje pt dipsy todo lo que sea modo web a no tener conexión no va a poder haber una comunicación con el modelo pero si no nos podemos permitir tener la ventaja de tener una lla local por nuestro equipo personalizada que al menos podamos tener una lla personalizada que nos facilite el trabajo que al menos nos dé los resultados para lo que lo necesitamos vale queremos que nos la hacen para los de gemini y para ello tendríamos que venirnos a descubrir james aquí por defecto viene uno que tiene gemini y aquí se nos van creando y podemos ir viendo lo que hemos creado y demás por nosotros aquí si le damos a editar se puede ver las instrucciones que se pasó toda la información que le pasamos y aquí se puede una vista primera que se podría atastear y demás vamos a Puedo crear uno nuevo. Ayudante de WordPress. Y la instrucción esperamos a que nuestro gran amigo nos lo dé. Vale, nos lo da aquí. Lo copiamos. Nos lo llevamos a Gemini. le pasamos las instrucciones y pues ya estaría. Solamente tenemos que darle a guardar si queremos preguntar. Podemos preguntarle y ¿cómo empiezo a utilizar por ejemplo y cuando va respondiendo en base a todo lo que hemos metido aquí no va a ser muy personalizada porque tampoco tiene mucha información aquí es cuanto más información más contexto más lo preparemos para lo que nosotros necesitamos mejores resultados nos va a dar entonces cuanto más nos dediquemos a adaptar a lo que necesitamos mejora resultados nos va a dar vale siempre como ya podéis ver aquí lo podemos editar podemos seguir editando personalizarlos añadiendo más información si necesitamos y continuar utilizando pues si necesitamos ampliarlo se puede ampliar sin ningún problema y la ventaja que tiene es que lo puede utilizar el fin en ordenador en cualquier dispositivo que tenga conexión a internet y te pueda buscar en gemini entonces dedicarle tiempo a poder adaptar un modelo a ti te va a dar la ventaja de que va a buscar la información donde necesitáis. Va a dar los resultados como especificáis, porque por ejemplo, si decís muéstrame el contenido de forma tabular, por si es que te viene mejor de la forma tabular, ya sea lo que os convenga más, cuanto más detalléis, siempre va a ser el mejor resultado que podáis darle. y cualquier duda que tengáis o venía aquí decir por ejemplo adaptá melón para que me ayude con la actualización de plugin por ejemplo y nos crea otro agregando lo que le hemos solicitado y adaptando hasta que lo vayamos por fin accionando lo más posible a lo que necesitamos entonces si tenéis alguna pregunta alguna duda Pues, entonces, según yo, muchas gracias ya por haber estado atendiendo. Espero que os haya gustado. Y si tenéis cualquier pregunta, podéis escribirme sin ningún problema, ya sea de guía local, si practicáis algo o necesitáis alguna ayuda, sin ningún problema me podéis preguntar. si tenéis ganas de hacer algún proyecto de IA o queréis hacer alguna prueba o algo, sin ningún problema podéis escribirme o que no sea de IA. Todo lo que sea de aprender yo me apunto, así que lo que necesitéis, sin ningún problema, sin ningún tipo de compromiso, escribirme, que en cuanto pueda os respondo y espero que puedan aprender sobre IA y muchas más cosas.