Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Cómo usar un chatbot local MLC similar a ChatGPT en macOS

Imagen destacada del artículo

La IA está arrasando en el mundo y, si bien puede usar Google Bard o ChatGPT, también puede usar uno alojado localmente en su Mac. Aquí se explica cómo usar la nueva aplicación de chat MLC LLM.

La inteligencia artificial (IA) es la nueva frontera de vanguardia de la informática y está generando bastante expectación en el mundo de la informática.

– Las aplicaciones basadas en IA con las que los usuarios pueden conversar como expertos en el dominio están creciendo en popularidad, por decir lo menos.

Los chatbots tienen un conocimiento aparentemente experto en una amplia variedad de temas genéricos y especializados y se están implementando en todas partes a un ritmo rápido. Un grupo – IA abierta – liberado ChatGPT hace unos meses a un mundo conmocionado.

ChatGPT tiene un conocimiento aparentemente ilimitado sobre prácticamente cualquier tema y puede responder preguntas en tiempo real que, de otro modo, llevarían horas o días de investigación. Tanto las empresas como los trabajadores se han dado cuenta de que la IA se puede utilizar para acelerar el trabajo al reducir el tiempo de investigación.

La baja

Sin embargo, dado todo eso, hay una desventaja en algunas aplicaciones de IA. El principal inconveniente de la IA es que los resultados aún deben ser .

Si bien la mayoría de las veces es correcta, la IA puede proporcionar datos erróneos o engañosos que pueden llevar a conclusiones o resultados falsos.

Los desarrolladores de software y las empresas de software han optado por «copilotos«: bots de chat especializados que pueden ayudar a los desarrolladores a escribir código haciendo que AI escriba el esquema de funciones o métodos automáticamente, que luego puede ser verificado por un desarrollador.

Si bien es un gran ahorro de tiempo, los copilotos también pueden escribir un código incorrecto. microsoft, AmazonGitHub y NVIDIA han lanzado copilotos para desarrolladores.

Primeros pasos con los chatbots

Para comprender, al menos en un nivel alto, cómo funcionan los chatbots, primero debe comprender los conceptos básicos de IA y, en particular, el aprendizaje automático (ML) y los modelos de lenguaje grande (LLM).

Machine Learning es una rama de la informática dedicada a la investigación y el desarrollo de intentar enseñar a las computadoras a aprender.

Un LLM es esencialmente un programa de procesamiento de lenguaje natural (NLP) que utiliza grandes conjuntos de datos y redes neuronales (NN) para generar texto. Los LLM funcionan entrenando código de IA en grandes modelos de datos, que luego «aprende» de ellos con el tiempo, esencialmente convirtiéndose en un experto en un campo en particular en función de la precisión de los datos de entrada.

Cuanto más (y más precisos) sean los datos de entrada, más preciso y correcto será un chatbot que utilice el modelo. Los LLM también se basan en modelos de datos mientras se capacitan.

Cuando le haces una pregunta a un chatbot, consulta a su LLM para obtener la respuesta más adecuada, en función de su aprendizaje y conocimiento almacenado de todos los temas relacionados con tu pregunta.

Esencialmente, los chatbots tienen un conocimiento precomputado de un tema y, con un LLM lo suficientemente preciso y suficiente tiempo de aprendizaje, pueden proporcionar respuestas correctas mucho más rápido que la mayoría de las personas.

Usar un chatbot es como tener un equipo automatizado de doctores a tu disposición al instante.

En enero de 2023, Meta AI lanzó su propio LLM llamado . Un mes después, Google presentó su propio chatbot de IA, Bard, que se basa en su propio LLM, . Desde entonces, se han producido otros chatbots.

IA generativa

Más recientemente, algunos LLM han aprendido a generar datos no basados ​​en texto, como gráficos, música e incluso libros completos. Las empresas están interesadas en la IA generativa para crear cosas como gráficos corporativos, logotipos, títulos e incluso escenas de películas digitales que reemplazan a los actores.

Por ejemplo, la imagen en miniatura de este artículo fue generada por IA.

Como efecto secundario de la IA generativa, a los trabajadores les preocupa perder sus trabajos debido a la automatización impulsada por el software de IA.

Asistentes de chatbots

El primer chatbot comercial disponible para el usuario del mundo (BeBot) fue lanzado por Bespoke Japan para Tokyo Station City en 2019.

Lanzado como una aplicación para iOS y Android, BeBot sabe cómo dirigirlo a cualquier punto alrededor de la estación similar a un laberinto, ayudarlo a almacenar y recuperar su equipaje, enviarlo a un mostrador de información o encontrar horarios de trenes, transporte terrestre o alimentos y tiendas dentro de la estación.

Incluso puede decirle a qué plataformas de tren debe dirigirse para el viaje en tren más rápido a cualquier destino de la ciudad según la duración del viaje, todo en unos pocos segundos.

La aplicación de chat MLC

El proyecto (MLC) es una creación del investigador de Aprendizaje Profundo de la Fundación Apache, Siyuan Feng, y Hongyi Jin, así como otros con sede en Seattle y Shanghái, China.

La idea detrás de MLC es implementar LLM y chatbots en dispositivos de consumo y navegadores web. MLC aprovecha el poder de las unidades de procesamiento de gráficos (GPU) de consumo para acelerar los resultados y las búsquedas de IA, lo que hace que la IA esté al alcance de la mayoría de los dispositivos informáticos de consumo modernos.

Otro proyecto de MLC – Máster en Derecho Web – trae la misma funcionalidad a los navegadores web y se basa a su vez en otro proyecto – . Solo las máquinas con GPU específicas son compatibles con Web LLM, ya que se basa en marcos de código que admiten esas GPU.

La mayoría de los asistentes de IA se basan en un modelo cliente-servidor con servidores que realizan la mayor parte del trabajo pesado de la IA, pero MLC convierte los LLM en código local que se ejecuta directamente en el dispositivo del usuario, lo que elimina la necesidad de servidores LLM.

Configuración de MLC

Para ejecutar MLC en su dispositivo, debe cumplir con los requisitos mínimos enumerados en las páginas del proyecto y de GitHub.

Para ejecutarlo en un iPhone, necesitará un iPhone 14 Pro Max, iPhone 14 Pro o iPhone 12 Pro con al menos 6 GB de RAM libre. También necesitarás instalar Applela aplicación TestFlight de para instalar la aplicación, pero la instalación está limitada a la primera 9,000 usuarios.

Intentamos ejecutar MLC en un iPad base 2021 con 64 GB de almacenamiento, pero no se inicializó. Sus resultados pueden variar en iPad Pro.

También puede compilar MLC a partir de fuentes y ejecutarlo en su teléfono directamente siguiendo las instrucciones en la página de MLC-LLM GitHub. Necesitará el sistema de control de código fuente git instalado en su Mac para recuperar las fuentes.

Para hacerlo, cree una nueva carpeta en Finder en su Mac, use el comando UNIX cd para navegar hasta ella en la Terminal, luego active el comando git clone en la Terminal como se indica en la página MLC-LLM GitHub:

https://github.com/mlc-ai/mlc-llm.git y presione Devolver. git descargará todas las fuentes de MLC en la carpeta que creó.

MLC ejecutándose en iPhone. Puede seleccionar o descargar qué modelo de peso usar.

Instalación de los requisitos previos de Mac

Para computadoras Mac y Linux, MLC se ejecuta desde una interfaz de línea de comandos en Terminal. Primero deberá instalar algunos requisitos previos para usarlo:

  1. El Conda o Administrador de paquetes Miniconda
  2. Cerveza casera
  3. Biblioteca de gráficos Vulkan (Linux o Windows solo)
  4. soporte de archivos grandes de git (LFS)

Para los usuarios de NVIDIA GPU, las instrucciones de MLC establecen específicamente que debe instalar manualmente el vulcano controlador como controlador predeterminado. Otra biblioteca de gráficos para GPU NVIDIA – – no funcionará.

Para usuarios de Mac, puede instalar Miniconda usando el administrador de paquetes Homebrew, que hemos cubierto anteriormente. Note que Miniconda entra en conflicto con otra fórmula de Homebrew Conda, .

Entonces, si ya tiene miniforge instalado a través de Homebrew, primero deberá desinstalarlo.

Siguiendo las instrucciones en la página de MLC/LLM, los pasos de instalación restantes son aproximadamente:

  1. Crear un nuevo entorno Conda
  2. Instalar git y git LFS
  3. Instale la aplicación de chat de línea de comandos de Conda
  4. Cree una nueva carpeta local, descargue los pesos del modelo LLM y configure una variable LOCAL_ID
  5. Descargue las bibliotecas MLC de GitHub

Todo esto se menciona en detalle en la página de instrucciones, por lo que no entraremos en todos los aspectos de la configuración aquí. Puede parecer abrumador al principio, pero si tiene conocimientos básicos de macOS Terminal, en realidad son solo unos pocos pasos sencillos.

El paso LOCAL_ID simplemente establece esa variable para que apunte a uno de los tres pesos del modelo que descargó.

Los pesos de los modelos se descargan del sitio web de la comunidad HuggingFace, que es una especie de GitHub para IA.

Una vez que todo esté instalado en la Terminal, puede acceder a MLC en la Terminal usando mlc_chat_cli

Uso de MLC en navegadores web

MLC también tiene una versión web, Máster en Derecho Web.

La variante Web LLM solo se ejecuta en Apple Mac de silicona. No se ejecutará en Intel Mac y producirá un error en la ventana del chatbot si lo intenta.

Hay un menú emergente en la parte superior de la ventana de chat web de MLC desde el que puede seleccionar el peso del modelo descargado que desea usar:

Seleccione uno de los pesos del modelo.

Necesitarás el Google Chrome navegador para usar Web LLM (Chrome versión 113 o posterior). Las versiones anteriores no funcionarán.

Puedes comprobar tu Chrome número de versión de la Chrome menú en la versión Mac yendo a Chrome->Acerca de Google Chrome. Si hay una actualización disponible, haga clic en el Actualizar botón para actualizar a la última versión.

Puede que tengas que reiniciar Chrome después de actualizar

Note que la página MLC Web LLM te recomienda lanzar Chrome desde la Terminal Mac usando este comando:

/Aplicaciones/Google\ Chrome.app/Contents/MacOS/Google\ Chrome –enable-dawn-features=allow_unsafe_apis,disable_robustness

allow_unsafe_apis’ y disabled_robustness’ son dos Chrome lanza banderas que le permiten usar funciones experimentales, que pueden o no ser inestables.

Una vez que todo esté configurado, simplemente escriba una pregunta en el Ingrese su mensaje en la parte inferior del panel de chat de la página web Web LLM y haga clic en el Enviar botón.

La era de la verdadera IA y los asistentes inteligentes apenas comienza. Si bien existen riesgos con la IA, esta tecnología promete mejorar nuestro futuro al ahorrar una gran cantidad de tiempo y eliminar una gran cantidad de trabajo.

Resumen del Contenido