Páginas

domingo, 24 de diciembre de 2023

Phi-2 Inteligencia Artificial de Microsoft

 Centro Educativo Madre Teresa de Calcuta

Informática Educativa

Phi-2 Inteligencia Artificial de Microsoft

Hace unos días Google daba el pistoletazo de salida a la era de la IA de bolsillo con Gemini Nano, su modelo de IA generativa de texto capaz de funcionar directamente desde el móvil y sin conexión a la nube. Ahora Microsoft acaba de sorprender a todos con el lanzamiento de su particular rival, un Small Language Model (SLM) llamado Phi-2 que también se puede usar en móviles.

Phi-2. En Microsoft Research indicaban que este nuevo modelo de texto a texto es "suficientemente pequeño para ser ejecutado en un portátil o en un dispositivo móvil". Satya Nadella ya nos habló de él en el reciente evento Ignite 2023, y es la evolución de Phi-1, que tan solo contaba con 1.3B de parámetros.

Un ChatGPT en formato compacto. Estamos ante un modelo con 2.700 millones de parámetros (2.7B), una cifra que claramente lo orienta precisamente a ser utilizada en dispositivos más modestos. En Google Gemini Nano tiene dos versiones con 1.800 (1.8B) y 3.250 millones (3.25B) de parámetros, por ejemplo.

Pequeñito pero matón. Lo es, al menos según sus responsables. ¿La razón? Es capaz de igualar e incluso superar las prestaciones y precisión de modelos teóricamente más capaces como Llama 2-7B o Mistral-7B. En las pruebas que han ejecutado a nivel interno el rendimiento es excelente a pesar de tener casi una tercera parte de los parámetros de esos modelos.

También supera a Gemini Nano. El nuevo modelo de Microsoft es también capaz de superar el rendimiento de Gemini Nano 3.25B, el modelo "móvil" más ambicioso de Google, y según los investigadores de la empresa es también capaz de ofrecer menos "toxicidad" y mostrarse más subjetivo en las respuestas que las que por ejemplo ofrece Llama 2.

Las comparaciones son odiosas. En la presentación del modelo Microsoft nos recordó que la espectacular demostración de Gemini Ultra no había sido tan espectacular. Había hecho algo de trampa. En uno de los apartados Google mostró cómo Gemini Ultra era capaz de ayudar a un estudiante con problemas de física, y en Microsoft usaron los mismos prompts con Phi-2 y se vio que era también de resolver esas dudas incluso siendo un modelo mucho más pequeño.

La empresa afirma que su nuevo modelo de lenguaje es capaz de superar en prestaciones a Llama 2 y Mistral 7B. Lamentablemente, se trata de un modelo que solo estará disponible para propósitos académicos: los usuarios no podremos aprovecharlo.

Solo para investigar. A pesar de esa capacidad, Phi-2 no llegará a nuestros móviles, al menos por el momento. El modelo se licencia únicamente "con propósitos de investigación", y no se podrá desplegar comercialmente. Sí que se habla de la posibilidad de usarlo "con propósitos no comerciales y que no generen ingresos", pero su aplicación práctica es algo menos directa. Se puede acceder a él, eso sí, a través del catálogo de la nueva plataforma Azure AI Studio.

Fuente Bibliográfica:

https://www.xataka.com/robotica-e-ia/microsoft-tiene-rival-para-gemini-nano-se-llama-phi-2-puede-funcionar-moviles

GEMINI NANO

 Centro Educativo Madre Teresa de Calcuta

Informática Educativa

 

Gemini Nano:

La era de la Inteligencia Artificial (IA) de bolsillo


Había muchas expectativas con el lanzamiento de Google Gemini, y tras el anuncio de ayer al fin sabemos lo que tenemos entre manos: no uno, sino tres modelos multimodales de IA que competirán con ChatGPT.

El primero de ellos, Gemini Pro, ya está disponible a través de Google Bard, y aunque el más ambicioso es Gemini Ultra, hay especial interés con el pequeño de la familia, Gemini Nano. La razón es importante: abre la puerta a una nueva era en la que contaremos con esa "IA de bolsillo", o 'on device', que gracias a nuestros móviles estará disponible en todo momento y que además será independiente de la nube.

 

Bienvenidos a era de la IA "on device"

Con Gemini Nano Google ha querido ofrecer un modelo mucho más eficiente y específicamente orientado a poder funcionar directamente en local, en nuestros dispositivos, y sin necesidad de conectarse a la nube. Esa es la principal y gran diferencia con modelos como ChatGPT o Bard, que ciertamente podemos usar desde el móvil a través de un navegador; pero que funcionan desde la nube en grandes servidores que se encargan de procesar y generar las respuestas.

Con Gemini Nano todo ese procesamiento y generación de texto se produce directamente en nuestros dispositivos, y eso plantea beneficios importantes. Entre ellos, que los datos que utilizamos no abandonan el dispositivo y no se comparten con terceros, al menos, hasta donde sabemos. Estamos, pues, ante modelos de IA de bolsillo que pueden ejecutarse directamente en nuestros smartphones incluso sin que estemos conectados a redes de datos.

Como explican los responsables de Google en el blog de desarrolladores Android, eso permite que con Gemini Nano podamos crear "resúmenes de textos de alta calidad, respuestas inteligentes contextuales; como el ejemplo, de WhatsApp de la imagen justo encima de estos párrafos y corrección gramatical y de pruebas avanzada". Los desarrolladores interesados en crear aplicaciones que aprovechen la potencia de Gemini Nano pueden registrarse en la plataforma de Google.

El debut de Gemini Nano y de la era de la IA de bolsillo se ha producido en el Pixel 8 Pro, el buque insignia de la compañía. Este smartphone contará con opciones de IA generativas como la capacidad de resumir por puntos una conversación de teléfono pregrabada.

Un modelo más eficiente y con Android AICore como componente clave:

Estamos ante el modelo más eficiente de los tres que ha presentado Google, algo obvio si tenemos en cuenta que su destino es poder correr no en servidores, sino en nuestros móviles. Como los propios responsables de Google explican en el informe de producto, hay dos versiones distintas de Nano. La primera es Nano-1, con 1.800 millones de parámetros (1.8B). La segunda es Nano-2, con 3.250 millones de parámetros (3.25B).

Además el modelo está cuantizado en 4 bits para su despliegue. Esa cuantización se refiere a un proceso de reducción de la precisión de los pesos y las activaciones del modelo de valores de coma flotante de 32 bits a enteros de 4 bits.

Este proceso de cuantificación reduce significativamente la huella de memoria del modelo, por lo que es más adecuado para su despliegue en dispositivos con recursos limitados, como smartphones o dispositivos IoT. Aún así, aseguran en Google, este modelo cuantizado alcanza un rendimiento comparable o incluso superior al modelo original de 32 bits del que se parte.

En el centro de este despliegue está Android AICore, un nuevo servicio de sistema que es el que permite hacer uso de los modelos fundacionales como Gemini Nano directamente en nuestros móviles Android.

Este nuevo componente de Android 14 es además "privado por diseño", y entre otras cosas habilita los procesos de ajuste fino a través del llamado Low Rank Adaptation (LoRA), una técnica que adapta grandes modelos de lenguaje (LLMs) como el propio Google PaLM 2 para que se ajusten a tareas específicas y todo ello en dispositivos "limitados" como nuestros Smartphone.

Esto es solo el principio…

El lanzamiento de Google Nano es prometedor; pero es cierto que hoy por hoy sus prestaciones y aplicaciones prácticas son limitadas. La realidad es que solo una pequeña parte de los usuarios (los que tengan un Pixel 8 Pro), podrán comenzar a usarlo y solo podrán hacerlo en un par de escenarios muy concretos. Resumir conversaciones o contestar a mensajes de forma automática es interesante, pero ciertamente queremos mucho más de estas IAs de bolsillo.

De hecho, este despliegue no significa de momento que vayamos a contar con un "ChatGPT de bolsillo" o un "Google Bard de bolsillo": las prestaciones del modelo no están destinadas de momento a sustituir al buscador de Google; puede que nunca lo estén, eso sería tirarse piedras contra su propio tejado; sino a proporcionar formas de aprovechar mejor nuestro dispositivo y de ganarle tiempo al tiempo.

Los modelos de IA generativa en la nube como ChatGPT o Bard no parecen por tanto estar amenazados por esta nueva era de IA de bolsillo: estamos más bien ante compañeros de viaje que actuarán como "copilotos", como le gusta decir a Microsoft de esa experiencia; pero directamente desde el móvil, como si fueran aplicaciones independientes y separadas. A partir de aquí, eso sí, las posibilidades parecen enormes, y estamos solo ante el principio del camino. Uno que puede acabar siendo una pequeña revolución en sí misma.

 

Fuente Bibliográfica:

https://www.xataka.com/robotica-e-ia/gemini-nano-empieza-nueva-era-ia-bolsillo

Google Gemini vs Google Bard

Centro Educativo Madre Teresa de Calcuta

Informática Educativa

 

Google Gemini vs Google Bard

Inteligencia Artificial

Google Gemini es un proyecto de inteligencia artificial desarrollado por Google. Se trata de un sistema que se perfila como un competidor directo de GPT-4 de OpenAI. La principal característica de Gemini es su capacidad multimodal, lo que significa que puede procesar y generar no solo texto, sino también trabajar con otros tipos de datos e interacciones. Esto lo hace un sistema más versátil y potente en comparación con otros modelos de lenguaje que se centran únicamente en el texto.

En cuanto a su presentación, Gemini fue anunciado en el evento Google I/O de 2023. Este evento es una conferencia anual de desarrolladores organizada por Google, donde la compañía suele presentar sus últimas innovaciones y desarrollos tecnológicos. Aunque se presentó en 2023, parece que solo veremos a Gemini en enero de 2024, dentro de pocas semanas.

Google Bard y Google Gemini son desarrollos de inteligencia artificial de Google, pero tienen diferencias clave en sus capacidades y aplicaciones.

Multimodalidad de Gemini: Una de las diferencias fundamentales entre Gemini y Bard es que Gemini es un sistema multimodal. Esto significa que no solo puede trabajar con texto, sino también con otros tipos de entradas y salidas, lo que lo hace más versátil y potente que Bard​​.

Integración de Bard en aplicaciones de Google: Bard, por su parte, se ha integrado en aplicaciones de Google como YouTube, Gmail y Drive a través de «Extensiones Bard». Esto permite a los usuarios colaborar con el chatbot mientras utilizan estos servicios​​.

Modelo de lenguaje subyacente de Bard: Bard se basa en LaMDA, un modelo de lenguaje desarrollado por Google durante dos años. Este modelo se centra más en el procesamiento del lenguaje natural​​.

Gemini como competidor de GPT-4: Gemini se presenta como un competidor directo de GPT-4 de OpenAI. Fue presentado en el I/O de 2023 y se espera que aporte mejoras significativas a la inteligencia artificial existente de Google, como Bard y Google Assistant​​.

Comparación con GPT-4: Gemini se describe como una versión más avanzada y potente de Bard, comparable a GPT-4 de OpenAI, que es una versión mucho más poderosa de ChatGPT 3.5​​.

Gemini puede ser clave en la creación del panel de IA que Google está preparando en su buscador, el panel que responderá a las preguntas que hagamos antes de mostrar los enlaces a los que estamos acostumbrados, estableciendo así un antes y un después de las búsquedas de información en Internet.

Fuente Bibliográfica:

https://wwwhatsnew.com/2023/12/05/google-gemini-vs-google-bard-en-que-se-diferencian/ 

sábado, 23 de diciembre de 2023

GEMINI Inteligencia Artificial de Google

 Centro Educativo Madre Teresa de Calcuta

Gemini

Inteligencia Artificial de Google

Google Gemini es un modelo de inteligencia artificial creado por Google, y que busca liderar el competitivo mercado de la inteligencia artificial. Los modelos de inteligencia artificial no son las aplicaciones o Chatbots como Google Bard, sino que son la tecnología con la que estos funcionan.

De hecho, Gemini quiere ser el sucesor de PaLM, que es el modelo de inteligencia artificial que actualmente utiliza Bard. El plan es que poco a poco PaLM vaya siendo reemplazado por Gemini dentro de Bard, por lo que aunque utilicemos el mismo bot de IA, las respuestas que nos de serán mucho mejores.

A la hora de presentarse, Gemini ha destacado por superar a todos sus rivales en los principales tests. Esto quiere decir que Google ha conseguido adelantar a OpenAI y su GPT-4, aunque tarde o temprano también llegará una nueva versión de este modelo que también lo supere.

Gemini es un modelo multimodal, que va a poder entender varios tipos de información, tanto los textos que le escribas como las imágenes, y también podrá entender audio y código de programación. Esto lo va a convertir en un modelo extremadamente flexible.

Cómo funciona Google Gemini

Los modelos de inteligencia artificial son entrenados de forma intensiva con una gran cantidad de datos. Se recopilan datos de todo Internet, y se le dan a los algoritmos de entrenamiento para que este sistema de lenguaje aprenda a entender las cosas que le digamos, tenga dentro de sí mismo la información con las respuestas, y consiga generar respuestas escritas que sean naturales.

En el caso de Gemini en concreto, Gemini ha sido diseñado desde cero por Google. Desde el principio ha sido creado como un modelo multimodal. Esto quiere decir que no se le ha entrenado para entender una fuente como el texto, y luego se le enseña a transformar otras fuentes a esta primera. Su entrenamiento ha sido distinto.

Este modelo se ha entrenado ya desde el principio para combinar distintas modalidades de forma nativa. Esto quiere decir que podrá entender tanto un texto como un dibujo que le hagamos en tiempo real. Según la empresa del buscador, también es capaz de relacionar objetos en tiempo real y sugerir canciones a medida que le damos indicaciones.

Gemini también introduce nuevo sistema de generación de código llamado AlphaCode2. Este sistema mejora la comprensión de matemáticas complejas y la teórica de ciencias de la computación. También se ha mejorado el razonamiento y su capacidad de entender código, de forma que haya menos "alucinaciones" y las respuestas sean más fiables.

Diferencias con GPT

Gemini tiene tres versiones diferentes: Ultra, Pro y Nano. Gemini Ultra es la más avanzada y multimodal, la segunda es más limitada en capacidades y funciones, y la versión Nano está enfocada a dispositivos con menos capacidades de computación y memoria, y así poder funcionar en teléfonos móviles.

Aunque parezca la menos potente, Gemini Nano es una de las mayores revoluciones, ya que podrá ser utilizada como una IA que se implementa directamente dentro del dispositivo. Esto quiere decir que no tendrás que usar una app que se conecte a un servidor de la IA como pasa con la de ChatGPT, sino que la IA podrá venir directamente en tu móvil y no necesitar conexión.

Para poder entender su capacidad, se puede comparar con el GPT de OpenAI. Para empezar, Gemini Ultra es el competidor de GPT-4, y supera a este otro lenguaje de IA en las pruebas actuales. Mientras Gemini Pro es el competidor de GPT 3.5, que es el que encontramos en ChatGPT gratuito. Por último, de momento Gemini Nano no se puede comparar con ningún producto de OpenAI.

Otra de las cosas que debemos diferenciar es que Gemini es multimodal y GPT no. Esto quiere decir que de forma nativa o "de fábrica" podrá entender fotos, audios, texto y más tipos de entrada sin tener que buscar implementar ningún tipo de complemento.

Cuándo llegará Gemini

Las distintas versiones de Gemini irán llegando de forma escalonada en los próximos meses. En primer lugar, Gemini Pro ha empezado a llegar ya a Google Bard. De momento, se podrá usar en inglés en más de 180 países, pero no en Europa, donde llegará en los próximos meses.

Más tarde, está previsto que Google lance un Bard Advance, una versión mejorada de Google Bard que integrará Gemini Ultra. Esto irá sucediendo a partir del año que viene, aunque todavía no hay fechas.

Y por último, Gemini Nano llegará a los móviles Pixel 8 Pro de Google. Además, también habrá un AICore, que es es un nuevo servicio para que los creadores de aplicaciones puedan usarlo e implementarlo en sus apps.

Además de Google Bard, Gemini también llegará a otros servicios y aplicaciones de la empresa. Para empezar, va a llegar al buscador Google, así como a Google Ads, Duet AI y el propio navegador Google Chrome. Todavía no hay fechas para estas llegadas, aunque sabemos que, a partir del 13 de diciembre, los desarrolladores podrán acceder a Gemini Pro a través de la API en Google AI Studio o Vertex AI.

Fuente Bibliográfica:

https://www.xataka.com/basics/google-gemini-que-como-funciona-diferencias-gpt-cuando-podras-usar-este-modelo-inteligencia-artificial

PaLM 2 Inteligencia Artificial de Google

 Centro Educativo Madre Teresa de Calcuta

Informática Educativa

 

PaLM 2

Inteligencia Artificial de Google

PaLM es un modelo de lenguaje por Inteligencia Artificial creado por Google para competir con GPT. Estos modelos son el cerebro y el corazón de los chats por IA como ChatGPT y como Google Bard, es lo que hay por dentro de la IA y que permite que realice las interacciones. Sus siglas significan Pathways Language Model, que es el nombre del modelo.

Con estos modelos, chats de inteligencia artificial como Bard son capaces de mantener una conversación contigo, de entender las frases que le dices y las peticiones que te hace, y de responderte de una manera natural y coherente. Estos modelos son los que han sido entrenados para permitir realizar estas interacciones.

PaLM es un sistema que ha sido entrenado para mantener conversaciones con cualquier persona en los idiomas en los que ha sido entrenado. Sus algoritmos analizan las palabras que le escribes, entienden su orden, su sentido e interpretan lo que quieres decir, y luego generan una respuesta basada en la información con la que ha sido entrenada.

PaLM 2 es la nueva versión del modelo de lenguaje de Google, presentado el 10 de mayo de 2023 durante el Google I/O. Se trata del modelo que utilizará a partir de ahora Google Bard, y si Google aseguraba que PaLM era tres veces superior a GPT-3, es de esperar que esta nueva versión pueda enfrentarse directamente a GPT-4.

Otra de las características de PaLM 2 es que estará disponible en cuatro tamaños: Gecko, Otter, Bison y Unicorn. La idea es la versatilidad, teniendo un Gecko tan pequeño que puede usarse en móviles sin necesitar gran hardware, y otros que van creciendo en potencia, pero también en requisitos.

Cómo funciona PaLM

Para empezar, modelos como PaLM modelos son entrenados de forma intensiva con una gran cantidad de datos. Se recopilan datos de todo Internet, y se le dan a los algoritmos de entrenamiento para que este sistema de lenguaje aprenda a entender las cosas que le digamos, tenga dentro de sí mismo la información con las respuestas, y consiga generar respuestas escritas que sean naturales.

PaLM utiliza un modelo basado en una red neuronal transformadora, lo que a menudo se conoce como transformador. Esto hace que en un nivel básico de funcionamiento, PaLM sea similar a los modelos de la competencia como los GPT de OpenAI.

Este tipo de modelos son capaces de coger nuestro lenguaje escrito y convertirlo mediante capas en un lenguaje numérico que puede "entender" la inteligencia artificial. Además de estas capas, también trabajan con una gran cantidad de parámetros para su proceso automático de aprendizaje.

Por ejemplo, PaLM utiliza el sistema de aprendizaje automático Pathways desarrollado por Google para entrenar un modelo a través de múltiples pods de unidades de procesamiento tensorial. Utiliza una técnica de que le permite aprender de un número limitado de ejemplos etiquetados, sin necesidad de grandes cantidades de ejemplos. Esto le permite adaptarse rápidamente y generalizar nuevas tareas o clases con un mínimo de datos etiquetados.

Siendo una red transformadora, PaLM es capaz de entender y crear patrones con el contenido de los prompts que le escribimos, tanto texto como código. Durante su proceso de aprendizaje, el modelo descubre patrones estadísticos y conexiones que existen entre palabras y frases dentro del contenido. Este conocimiento adquirido permite a PaLM generar respuestas coherentes y pertinentes en varios contextos.


Qué puedes hacer con este modelo de IA:

Google ha asegurado que PaLM 2 ha mejorado frente a su predecesor en tres grandes áreas. Vamos, que no es solo una mejora general de todas sus habilidades, sino que además se han concentrado en hacer que tres tipos de mejoras sean sustanciales. Son las siguientes:

  1. Multiidioma: PaLM 2 está entrenado con textos de distintos idiomas, más de 100, aseguran y eso ha permitido mejorar de forma significativa su capacidad de comprender, generar y traducir textos incluyendo modismos, poemas y acertijos, uno de los problemas más complejos de resolver para una IA. PaLM 2 de hecho aprueba los exámenes de competencia de idioma con un nivel “maestro”, aseguran en Google.
  2. Razonamiento: la diversidad protagonizada por el conjunto de datos con el que ha sido entrenado PaLM2 incluye estudios científicos y sitios web que contienen expresiones matemáticas. Eso ha permitido ganar terreno en campos como la lógica, el razonamiento de sentido común y las matemáticas.
  3. Programación: También ha habido un claro enfoque a incluir código fuente para entrenar al modelo, y según Google PaLM 2 destaca a la hora de escribir código en lenguajes como Python o JavaScript, pero también puede generar código especializado en otros lenguajes como Prolog, Fortran o Verilog.

 

Google ha entrenado este modelo con todo tipo de fuentes, como documentos web, libros, código, matemáticas y datos conversacionales. El conjunto de datos con el que ha sido entrenado ha sido significativamente más grande que el de la versión anterior, y se han incluido muchas fuentes en otros idiomas distintos del inglés.

Con todo esto, PaLM será un especialista en idiomas y códigos, lo que le permitirá analizar fragmentos de códigos o encontrar bugs. También podrá ser un traductor mucho más avanzado que Google Translator, pudiendo traducir expresiones populares y modismos.

PaLM 2 va a estar integrado en muchos servicios de Google, por lo que los usos que podrás hacer con él son varios. Para empezar, puedes usarlo en Bard, el chat de inteligencia artificial de Google, que mejora la capacidad de saber programar al ser uno de los puntos en los que se han centrado para mejorarlo.

El modelo también se integrará en Google Workspace, donde PaLM 2 se convertirá en un asistente permanentemente con el que podrás hacer tus trabajos más rápidos. Esto quiere decir que te ayudará a escribir textos en Gmail o Docs  pero también a otras tareas como organizar mejor los datos en Google Sheets.

El modelo también se ha aplicado al campo de la ciberseguridad a través del llamado Sec-PaLM. Se trata de una versión adaptada y especializada en ciberseguridad, que permite analizar y explicar el comportamiento de scripts potencialmente maliciosos en líneas de código, y podrá detectar los que representen una amenaza para usuarios y empresas. Algo así como un detector de scripts maliciosos.

PaLM también ha sido adaptado por Google para tener una versión adaptada a la medicina. Esta versión se ha entrado por equipos de investigación médica en Google, y se promete que pueda resumir textos médicos y contestar a muchas preguntas médicas. Incluso se está trabajando en funciones multimodales que le permitan analizar la información de radiografías o mamografías.

Cómo probar PaLM 2

La mejor manera de probar este modelo de lenguaje es utilizando Google Bard. Sin embargo, tenemos el problema de que Bard todavía no está disponible en Europa, por lo que podemos tardar en poder probarlo.

Sin embargo, en Basics te hemos explicado cómo probar Google Bard en España utilizando una VPN con la que simular que nos conectamos desde uno de los países en los que está disponible. Si lo haces, entonces podrás probar Bard en inglés y comprobar todo lo que es capaz de hacer PaLM 2.

Fuente Bibliográfica:

https://www.xataka.com/basics/palm-2-que-como-funciona-que-puede-hacer-como-probar-este-modelo-lenguaje-inteligencia-artificial

OpenAI Classifier

 Centro Educativo Madre Teresa de Calcuta

Informática Educativa

 

OpenAI Classifier:

Detector de textos hechos con ChatGPT 

OpenAI AI Text Classifier es una herramienta creada para poder identificar textos escritos con inteligencia artificial, como ChatGPT. Es un detector de ChatGPT creado por los responsables la popular IA, por lo que promete ser bastante fiable para detectar textos creados con GPT y otras tecnologías de inteligencia artificial.

Se trata de una herramienta totalmente gratuita, aunque necesitarás tener una cuenta en OpenAi para poder utilizarla. Empezaremos el artículo diciéndote lo que es y su funcionamiento o las limitaciones que tiene. Y luego, terminaremos diciéndote cómo utilizarlo.

Qué es AI Text Classifier.

Estamos viviendo una revolución de Inteligencia Artificial, con chatbots como ChatGPT, Google Bard o Bing Chat siendo capaces de crear todo tipo de contenido. Y entre el contenido que puedes crear, está la posibilidad de redactar deberes escolares o hacer trabajos que se supone que debe hacer un humano.

En un contexto en el que cada vez más alumnos utilizan ChatGPT para sus trabajos, los profesores y otros profesionales pueden acabar teniendo dificultades para distinguir cuando algo se ha escrito con IA. y es aquí donde entra en juego la herramienta de Open AI.

AI Text Classifier es un detector de textos creados por inteligencia artificial. Sus creadores aseguran que puede distinguir el texto que se ha creado con distintos modelos de IA para generar textos, incluyendo ChatGPT. Simplemente, pegas el texto que quieres identificar y te dirá si está hecho por IA o por humanos.

Este clasificador de textos no es totalmente fiable, aunque la empresa promete irlo mejorando. Puede dar falsos positivos, sobre todo a la hora de identificar textos de IA, por lo que siempre te dirá que ha sido probablemente creado por uno u otro, pero no afirmará nada.

Este clasificador es un modelo de lenguaje por Inteligencia Artificial basado en GPT, por lo que por dentro es muy parecido a ChatGPT. La diferencia es que este modelo ha sido entrenado para detectar textos escritos por IA, y distinguirlos de los creados por personas.

Para este entrenamiento, se han utilizado tanto textos creados por humanos como creados por inteligencia artificial sobre un mismo tema. Estos textos se han recopilado de diversas fuentes escritas por personas, como los mismos datos de preentrenamiento y las demostraciones humanas sobre las instrucciones enviadas a InstructGPT.

Además de esto, ha sido entrenado para poder detectar distintos modelos de lenguaje por IA, tanto los creados por la propia OpenAI como otros desarrollados por otras empresas y organizaciones. En esta herramienta, se ha ajustado el umbral de confianza para mantener baja la tasa de falsos positivos. Esto quiere decir que sólo se marca un texto como probablemente escrito por IA si el clasificador tiene mucha confianza en ello.

En esencial, lo que hace este sistema es buscar en un texto patrones de escritura que correspondan con los que suelen utilizar ChatGPT y otras IA a la hora de hablar de determinados textos. Porque a la hora de escribir una palabra detrás de otra y expresarse, las IA pueden hacerlo de forma diferente a los humanos.

En cuanto a su funcionamiento técnico, se ha hecho lo más sencillo posible. Es una web con un recuadro, y solo tienes que pegar un texto y darle al botón de analizarlo. Entonces, el clasificador analizará el contenido del texto, cómo está escrito, y te dirá si cree que ha sido generado por IA.

Límites de AI Text Classifier:

Esta herramienta de clasificación de textos y detección de los que están escritos por IA tiene siete limitaciones esenciales que debes tener en cuenta. Son limitaciones que pueden convertirla en menos fiables, o sea que te las decimos a continuación:

  • Tamaño del texto que se envía: Es poco fiable con textos de menos de 1.000 caracteres, por lo que es mejor comprobar esos que tengan más de esta cifra.
  • No siempre fiable: A veces, el clasificador puede dar falsos negativos, y clasificar como escrito por humano un texto escrito por IA.
  • Idioma de los textos: La herramienta ha sido entrenada para analizar textos en inglés, y su rendimiento baja significativamente en otros idiomas. Tampoco es fiable para código.
  • Textos predecibles: No es muy fiable para textos predecibles. Por ejemplo, si hay una lista con números primos o cosas que son lógicas y que serán las mismas las escriba quien las escriba, entonces no funcionará bien.
  • Texto que puede eludir el clasificador: Un atacante puede editar los textos de una manera que pueda eludir el clasificador. La herramienta puede reentrenarse en función de estos ataques, pero no siempre a tiempo.
  • Textos con temas menores: Para este clasificador se han usado conjuntos de textos de muchísimos tipos de temas importante. Sin embargo, estos clasificadores basados en redes neuronales pueden no funcionar bien con textos de temas muy diferentes a los usados.
  • Textos escritos por niños: Los textos escritos por menores no siempre son fáciles de detectar como textos de humanos, ya que hay una manera de escribir muy diferente.

Cómo usar AI Text Classifier:

Para usar este clasificador de texto generado por IA, tienes que ir directamente a su web oficial en la página platform.openai.com/ai-text-classifier. Aquí dentro, inicia sesión con tu cuenta de OpenAI y accederás.



Una vez estés dentro, pega el texto que quieras dentro del recuadro de Text que aparece en la página. Cuando lo hagas, pulsa en el botón de Submit que tienes justo debajo.



en pocos segundos la web analizará el contenido del texto, buscará los patrones similares a cómo escriben las IA, y entonces te dirá debajo en inglés si considera posible que haya sido generado por inteligencia artificial.



Fuente Bibliográfica:

https://www.xataka.com/basics/openai-classifier-que-como-funciona-como-usar-este-detector-textos-hechos-chatgpt

CHATGPT-4

 Centro Educativo Madre Teresa de Calcuta

Informática Educativa

 

CHATGPT-4

Inteligencia Artificial

Vamos a explicarte qué es GPT-4 y qué puedes hacer con él, de forma que puedas entender la manera en la que funciona. Se trata de la nueva versión de uno de los modelos de lenguaje autorregresivos más avanzados que existen, famoso por ser el corazón de ChatGPT o Bing Chat.

Qué es GPT-4

Existen sistemas de inteligencia artificial que son capaces de mantener una conversación contigo, de responderte de forma natural y de realizar tareas que le pidas, desde darte información sobre un tema hasta escribirte una redacción o un poema sobre él, además de otras tareas. En estos tipos de sistema, ChatGPT es con diferencia uno de los más populares.

Pero ChatGPT es solo el programa, la interfaz en formato de chat a la que le envías sus peticiones. En su corazón, o mejor dicho, su cerebro es el modelo de lenguaje por Inteligencia Artificial GPT, desarrollado por la empresa OpenAI. Y GPT es un modelo que se mantiene en constante evolución, y cada nueva versión trae increíbles mejoras.

GPT es un sistema que ha sido entrenado para mantener conversaciones con cualquier persona, y en cualquier idioma en el que le escribas. Sus algoritmos analizan las palabras que le escribes, entienden su orden, su sentido e interpretan lo que quieres decir, y luego generan una respuesta basada en la información con la que ha sido entrenada.

Cada nueva versión de GPT supone una mejora en las respuestas que da, haciendo que sean más precisas y completas. Y todo ello expresándose de una manera natural, en algunos contextos incluso difícil de diferenciar de lo que te escribiría un ser humano.

GPT-4 es actualmente la última versión de GPT, que ha sido lanzada el 14 de marzo del 2023. Sobre este nuevo sistema. OpenAI afirma que es mucho más creativo y colaborativo que sus predecesores, y que puede resolver con una mayor precisión problemas difíciles, ya que han seguido entrenándolo para que tenga un conocimiento general más amplio que su predecesor.

Cómo funciona GPT-4

Para empezar, estos modelos son entrenados de forma intensiva con una gran cantidad de datos. Se recopilan datos de todo Internet, y se le dan a los algoritmos de entrenamiento para que este sistema de lenguaje aprenda a entender las cosas que le digamos, tenga dentro de sí mismo la información con las respuestas, y consiga generar respuestas escritas que sean naturales.

En el interior de este modelo nos encontramos con la arquitectura Transformer, una técnica de procesamiento presentada por Google en 2017. Funciona mediante capas, con las que convierte cada palabra en vectores numéricos que luego pueden ser procesados matemáticamente por una red neuronal.

Entonces; lo que hace esta tecnología, es coger nuestro lenguaje escrito y convertirlo en el lenguaje numérico que puede "entender" la inteligencia artificial. Además de estas capas, los modelos GPT también trabajan con una gran cantidad de parámetros, y que son los que utiliza para su proceso automático de aprendizaje.

Además de esto, este modelo de inteligencia artificial utiliza la estructura en la nube de Azure, por lo que ha sido entrenando utilizando esta red de ordenadores de Microsoft, y se ejecuta desde esta misma infraestructura. Además, la enorme red de supercomputadores utilizados para el entrenamiento también contaba con miles de chips A100 de NVIDIA.

Cómo puedes utilizar GPT-4:

El Chat de Bing funciona con GPT-4, aunque también había muchos rumores apuntando a que podría funcionar con un GPT-3.5. En cualquier caso, es este chat de Bing el que te ofrece la manera gratuita en la que puedes utilizar las mejoras de este sistema.

Por lo demás, la otra manera en la que puedes utilizar GPT-4 es pagando la suscripción de ChatGPT Plus, que es la versión de pago de ChatGPT, aunque con acceso limitado durante un tiempo hasta que la compañía escale la capacidad de sus servidores. La versión gratuita de ChatGPT seguirá utilizando de momento GPT-3.5, por lo que será un poco peor en cuanto a sus capacidades.

Además de esto, si quieres experimentar con la API de este modelo de lenguaje por Inteligencia Artificial o implementarlo en otros sitios, puedes apuntarse a una lista de espera para ser uno de los primeros en tener acceso al modelo.



Qué puedes hacer con este modelo de IA:

Cuando utilices algún sistema de chat con este modelo de lenguaje por inteligencia artificial, tendrás a tu disposición muchas funciones. Y es que con sistemas como ChatGPT puedes hacer muchas cosas, como pedirle que te explique cualquier cosa, concepto o evento. La IA mirará entre los datos con los que ha sido entrenada, y entonces te generará una respuesta.

Puede pedirle que te genere textos, pudiendo establecer un número máximo o mínimo de caracteres y palabras, e incluso pudiéndole que lo haga en idiomas o con entonaciones concretas. Por poder, incluso también puedes pedirle que te haga traducciones de texto.

Puedes pedirle que te escriba textos de maneras determinadas o con plantillas concretas. Por ejemplo, puedes pedirle que te haga un guión para TikTok o YouTube en el que expliques una cosa, que te escriba un tweet o un tooth sobre un tema que te interese, o incluso que te lo escriba en andaluz para adquirir localismos, o que te lo haga con tonos concretos.

También puedes pedirle que te genere líneas de código para realizar determinadas tareas, fichas de especificaciones, comparativas, poemas, chistes, que te explique cosas como a un niño de 5 años... cualquier cosa relacionada con el lenguaje. También te puede crear juegos, definirte conceptos, cualquier cosa que se te ocurra.

La diferencia es que con GPT-4 se te darán unas respuestas mucho más completas, con más detalles y riqueza, y con datos más actualizados que la anterior versión. Hace prácticamente lo mismo, pero siempre mejor, con más calidad y creatividad a la hora de escribir, y más rápido.

Además, esta nueva versión tiene una gran novedad, que es su capacidad de comprender imágenes además de texto. Con esto, vas a poder enviarle imágenes y utilizarlas para comunicarte, haciendo peticiones para identificar objetos o preguntas relacionadas con el contenido de las imágenes.

GPT-4 también puede actuar como un profesor animándote a aprender mejor y dándote pistas, es capaz de pasar tests que detectan máquinas frente a humanos, e incluso puede descubrir nuevas medicinas. Programa mejor que nunca, puede hacer juegos de palabras, y mucho más, aunque sigue cometiendo errores y todavía no es perfecto.

Como puedes entender, una tecnología como esta puede hacer que sea difícil distinguir lo que está escrito por una persona o por una IA. Por eso, los propios creadores han creado la herramienta de OpenAI Classifier, que es un detector de textos creados por inteligencia artificial.

Fuente Bibliográfica:

https://www.xataka.com/basics/gpt-4-que-como-funciona-como-usarlo-que-puedes-hacer-este-modelo-lenguaje-inteligencia-artificial