WordPress Robots.txt optimización (+ Multisitio) — Tráfico del sitio web, clasificación & SEO Booster + WooCommerce

Descripción

Better Robots.txt crea un robots.txt virtual de WordPress, que le ayuda a mejorar el SEO de su sitio web (capacidades de indexación, clasificación de Google, etc.) y su rendimiento de carga — Compatible con Yoast SEO, Google Merchant, WooCommerce y sitios de red basados en directorios (MULTISITIOS)

Con Better Robots.txt, puedes identificar qué motores de búsqueda están autorizados a rastrear (o no) tu sitio web, especificar instrucciones claras sobre lo que están autorizados a hacer (o no) y definir un retraso de araña de web (para proteger tu servidor de alojamiento contra scrapers agresivos). Better Robots.txt también te ofrece un control total sobre el contenido del archivo robotst.txt mediante un cuadro de configuración personalizado.

Reduzca la huella ecológica de su sitio y la producción de gases de efecto invernadero (CO2) inherentes a su existencia en la Web.

Descripción general:

DISPONIBLE EN 7 IDIOMAS

Los mejores complementos Robots.txt están traducidos y disponibles en: Chinese –汉语/漢語, inglés, francés – français, ruso –Руссɤɢɣ, portugués – português, español, alemán – Deutsch

¿Sabías que..?

  • El archivo robots.txt es un simple archivo de texto ubicado en su servidor web que indica a las arañas web (como Googlebot) si deben acceder a un archivo o no.
  • El archivo robots.txt controla cómo las arañas de los motores de búsqueda ven e interactúan con tus páginas web;
  • Este archivo, y los bots con los que interactúan, son partes fundamentales de cómo funcionan los motores de búsqueda;
  • Lo primero que un rastreador de motores de búsqueda mira cuando está visitando una página web es el archivo robots.txt;

El archivo robots.txt es una fuente de información de SEO que está a la espera de ser desbloqueada. ¡Prueba Better Robots.txt!

Acerca de la versión Pro (características adicionales):

1. ¡Aumenta tu contenido en los motores de búsqueda con tu mapa de sitio!

Asegúrate de que tus páginas, artículos y productos, incluso los más recientes, sean tenidos en cuenta por los motores de búsqueda.

El plugin Better Robots.txt fue hecho para trabajar con el plugin Yoast SEO (probablemente el mejor plugin SEO para sitios web de WordPress). Detectará si estás utilizando Yoast SEO y si la función de mapa de sitio está activada. Si es así, añadirá automáticamente instrucciones en el archivo Robots.txt pidiendo a los bots/arañas que lean tu mapa del sitio y comprueben si has realizado cambios recientes en tu sitio web (para que los motores de búsqueda puedan rastrear el nuevo contenido disponible).

Si deseas añadir tu propio mapa del sitio (o si estás utilizando otro plugin SEO), sólo tienes que copiar y pegar la URL de tu mapa del sitio y Better Robots.txt lo añadirá a tu archivo Robots.txt.

2. Protege tus datos y contenido

Bloquea a los bots malos para que no copien (scraping web) tu sitio web y comercialicen tus datos.

El plugin Better Robots.txt te ayuda a bloquear la mayoría de los bots malos más populares para que no copien y rastreen tus datos.

Cuando se trata de cosas que rastrean tu sitio web, hay buenos y malos bots. Los buenos bots, como el bot de Google, rastrean tu sitio web para indexarlo en los motores de búsqueda. Otros rastrean tu sitio por razones más nefastas, como la eliminación de tu contenido (texto, precios,…) para volver a publicar, descargar archivos completos de tu sitio o extraer tus imágenes. Algunos bots incluso han acabado con sitios web enteros como resultado de una banda ancha pesada…

El plugin Better Robots.txt protege tu sitio web contra arañas/scrapers identificados como bots malos por Distil Networks.

3. Oculta y protege tus enlaces recibidos

Evita que la competencia identifique tus enlaces recibidos rentables

Los enlaces recibidos, también llamados «enlances de entrada» o «enlaces de retroceso», se crean cuando un sitio web se enlaza con otro. El enlace a un sitio web externo se llama enlace recibido. Los enlaces recibidos son valiosos para SEO, ya que representan un «voto de confianza» de un sitio a otro. En esencia, los vínculos de retroceso a su sitio web son una señal a los motores de búsqueda que otros responden por tu contenido.

Si muchos sitios enlazan a la misma página web o sitio web, los motores de búsqueda pueden inferir que el contenido vale la pena enlazarlo, y por lo tanto también vale la pena emerger en un SERP. Por lo tanto, la obtención de estos enlaces recibidos genera un efecto positivo en la posición de un sitio o la visibilidad de la búsqueda. En la industria SEM, es muy común que los especialistas identifiquen de dónde vienen estos enlaces recibidos (competidores) con el fin de clasificar los mejores de ellos y generar enlaces recibidos de alta calidad para sus propios clientes.

Teniendo en cuenta que la creación de enlaces recibidos rentables para una empresa lleva mucho tiempo (tiempo + energía + presupuesto), permitir a tus competidores identificarlos y duplicarlos tan fácilmente es una pérdida de eficiencia.

Better Robots.txt te ayuda a bloquear todos los rastreadores SEO (aHref, Majestic, Semrush) para mantener tus enlaces recibidos indetectables.

4. Evita los enlaces recibidos de spams

Los bots que pueblan los formularios de comentarios de tu sitio web te dicen: «gran artículo, me encanta la información, espero que puedas elaborar más sobre el tema pronto» o incluso ofrecen comentarios personalizados, incluyendo el nombre del autor. Los bots de spam obtienen más y más inteligencia, por desgracia, y los enlaces de spam en los comentarios pueden dañar tu perfil de enlace recibido. Better Robots.txt te ayuda a evitar que estos comentarios sean indexados por los motores de búsqueda.

5. Herramientas SEO

A la vez que mejoramos nuestro plugin, añadimos enlaces de acceso directo a dos herramientas muy importantes (si te preocupa tu clasificación en los motores de búsqueda): Search Console de Google y herramienta Bing Webmaster. En caso de que aún no los estés utilizando, ¡ahora puedes administrar la indexación de tu sitio web mientras optimizas tu robots.txt! También se agregó un acceso directo a una herramienta de ping masivo, que te permite hacer ping a tus enlaces en más de 70 motores de búsqueda.

También hemos creado cuatro enlaces de acceso directo relacionados con las mejores herramientas de SEO en línea, directamente disponibles en Better Robots.txt SEO PRO. De modo que, siempre que lo desees, puedes comprobar el rendimiento de carga de tu sitio web, analizar tu puntuación SEO, identificar tu clasificación actual en SERP con palabras clave y tráfico, e incluso escanear todo tu sitio web en busca de enlaces rotos (errores 404, 503,…), directamente desde el plugin…

6. Sé único

Pensamos que podríamos añadir un toque de originalidad a Better Robots.txt añadiendo una característica que te permita «personalizar» tu robots.txt con tu propia y única «firma». La mayoría de las grandes empresas del mundo han personalizado sus robots.txt añadiendo proverbios (https://www.yelp.com/robots.txt), eslóganes (https://www.youtube.com/robots.txt) o incluso dibujos (https://store.nike.com/robots.txt – en la parte inferior)…. ¿Por qué no tú? Es por eso que hemos dedicado un área específica en la página de configuración donde puedes escribir o dibujar lo que quieras sin afectar la eficiencia de tu robots.txt.

7. Evite que los robots rastreen enlaces inutilizables de WooCommerce

Hemos agregado una característica única que permite bloquear enlaces específicos («add-to-cart», «orderby», «fllter», carrito, cuenta, facturación,…) que no sean rastreados por los motores de búsqueda. La mayoría de estos enlaces requieren mucho uso de CPU, memoria y ancho de banda (en el servidor de alojamiento) porque no se pueden almacenar en caché y/o crean bucles de rastreo «infinitos» (mientras que son inutilizables). Optimizar su WordPress robots.txt para WooCommerce cuando tiene una tienda en línea, permite proporcionar más potencia de procesamiento para las páginas importantes y aumentar su rendimiento de carga.

8. Evite las trampas de rastreadores:

Las «trampas de rastreadores» son un problema estructural dentro de un sitio web que hace que los rastreadores encuentren un número virtualmente infinito de URL irrelevantes. En teoría, los rastreadores podrían quedar atrapados en una parte de un sitio web y nunca terminar de rastrear estas URL irrelevantes. Better Robots.txt ayuda a prevenir las trampas de rastreadores que perjudican el presupuesto de rastreo y causan contenido duplicado.

9. Herramientas de hackeo de crecimiento

Las empresas de más rápido crecimiento actualmente, como Amazon, Airbnb y Facebook, han impulsado el crecimiento de la ruptura al alinear a sus equipos en torno a un proceso de prueba/aprendizaje de alta velocidad. Estamos hablando de la estrategia de posicionamiento. La estrategia de posicionamiento es un proceso de experimentación rápida e implementación de estrategias de marketing y promoción que se centran únicamente en el crecimiento eficiente y rápido del negocio. Better Robots.txt proporciona una lista de más de 150 herramientas disponibles en línea para aumentar su crecimiento.

10. Robots.txt Post Meta Box para exclusiones manuales

Este Post Meta Box permite establecer «manualmente» si una página debe ser visible (o no) en los motores de búsqueda inyectando una regla dedicada «disallow» + «noindex» dentro de su robots.txt de WordPress. ¿Por qué es un activo para su clasificación en los motores de búsqueda? Simplemente porque algunas páginas no están destinadas a rastrearse o indexarse. Las páginas de agradecimiento, las páginas de destino, las páginas que contienen exclusivamente formularios son útiles para los visitantes, pero no para los rastreadores, y no es necesario que sean visibles en los motores de búsqueda. Además, algunas páginas que contienen calendarios dinámicos (para reservas en línea) NUNCA deben ser accesibles para los rastreadores ya que tienden a atraparlos en bucles de rastreo infinitos que afectan directamente a su presupuesto de rastreo (y su clasificación).

11. Ads.txt & App-ads.txt crawlability

In order to ensure that ads.txt & app-ads.txt can be crawled by search engines, Better Robots.txt plugin makes sure they are by default allowed in Robots.txt file no matter your configuration. For your information, Authorized Digital Sellers for Web, or ads.txt, is an IAB initiative to improve transparency in programmatic advertising. You can create your own ads.txt files to identify who is authorized to sell your inventory. The files are publicly available and crawlable by exchanges, Supply-Side Platforms (SSP), and other buyers and third-party vendors. Authorized Sellers for Apps, or app-ads.txt, is an extension to the Authorized Digital Sellers standard. It expands compatibility to support ads shown in mobile apps.

Más por venir, como siempre…

Capturas

  • Better Robots.txt Settings Page
  • Better Robots.txt Settings Page
  • Better Robots.txt Settings Page
  • Better Robots.txt Settings Page
  • Robots.txt file output

Instalación

INSTALACIÓN MANUAL

  1. Descomprime todos los archivos en el directorio /wp-content/plugins/better-robots-txt
  2. Inicia sesión en el administrador de WordPress y activa el plugin «Better Robots.txt» a través del menú «Plugins».
  3. Ve a «Ajustes > Better Robots.txt» en el menú de la izquierda para empezar a trabajar en el archivo robots.txt.

Preguntas frecuentes

El plugin Better Robots.txt está activado, pero ¿por qué no puedo ver ningún cambio en el archivo robots.txt?

Better Robots.txt crea un archivo virtual robots.txt. Por favor, asegúrate de que tus enlaces permanentes estén habilitados en Configuración > Enlaces permanentes. Si los enlaces permanentes están funcionando, asegúrese de que no haya ningún archivo físico robots.txt en tu servidor. Como no puedes escribir sobre un archivo físico, debes conectarte a FTP y renombrar o eliminar el robots.txt del directorio raíz de tu dominio. Normalmente está en la carpeta /public_html/ en los hostings de cPanel. Si no puedes encontrar el directorio raíz de tu dominio, pídele ayuda a tu proveedor de hosting. Si el problema persiste después de tomar estas medidas, por favor publícalo en la sección de soporte o envía un mensaje a support@better-robots.com

¿Habrá algún conflicto con el robots.txt que ya estoy utilizando?

Si tienes un robots.txt físico en tu servidor de alojamiento web, entonces este plugin no funcionará. Como se mencionó anteriormente, crea un archivo virtual robots.txt. Por favor, sigue los pasos de la respuesta anterior si deseas utilizar el archivo robots.txt con este plugin.

¿Cómo agregar sitemap en mi robots.txt de WordPress?

Esta función está permitida en la versión Better Robots.txt Pro, que añade automáticamente el mapa del sitio en el archivo robots.txt. Detecta el mapa del sitio desde el plugin Yoast SEO. En caso de que estés utilizando un plugin de mapa del sitio diferente o un mapa del sitio generado manualmente, simplemente puedes agregar la URL del mapa del sitio en el campo de entrada del mapa del sitio. Si los mapas del sitio de Yoast XML también están habilitados, entonces necesitas deshabilitarlos primero simplemente yendo a Yoast Configuración general > Características y deshabilita la función de XML Sitemaps.

¿Por qué debería optimizar el archivo robots.txt?

¿Por qué no? Teniendo en cuenta que robots.txt es el primer archivo leído cuando tu sitio web es cargado por un navegador, ¿por qué no permitir que los rastreadores indexen continuamente tu contenido? El simple hecho de añadir tu Mapa del sitio en Robots.txt es simplemente sentido común. ¿Por qué? ¿Has incluido tu sitio web en la Search Console de Google, lo ha hecho tu webmaster? ¿Cómo informar a las arañas web de que tienes nuevo contenido disponible para indexación en tu sitio web? Si quieres que este contenido se encuentre en los motores de búsqueda (Google, Bing,…), tienes que indexarlo. Eso es exactamente a lo que apunta esta instrucción (añadiendo el mapa del sitio). Un último punto. La razón principal por la que existe este plugin es porque el 95 % de las veces (basado en miles de análisis SEO), el archivo robots.txt o bien falta, o bien está vacío o bien ha sido malinterpretado, simplemente porque ha sido malinterpretado u olvidado. Imagínate ahora si estuviera activado y completamente funcional.

¿Cómo puede este plugin mejorar la clasificación de mi sitio web?

En realidad, este plugin aumentará la capacidad de indexación de tu sitio web, lo que te permitirá mejorar tu posicionamiento en Google. ¿Cómo? Bueno, la idea de crear este plugin fue tomada después de hacer cientos de optimizaciones SEO en sitios web profesionales y corporativos. Como se mencionó anteriormente, el 95 % de los sitios web analizados no tenían lo que podríamos llamar un archivo robots.txt «optimizado» y, mientras optimizábamos estos sitios web, nos dimos cuenta de que simplemente modificar el contenido de este archivo era en realidad «desbloquear» estos sitios web (basado en los análisis diarios de SEMrush). Como estábamos acostumbrados a trabajar en dos pasos (periodos de tiempo), comenzar con esta simple modificación ya estaba generando un impacto significativo en el posicionamiento de Google, y esto, incluso antes de que empezáramos a modificar profundamente el contenido, la arborescencia del sitio o los datos meta. Cuanto más ayudes a los motores de búsqueda en la comprensión de tu sitio web, mejor ayudas a tu capacidad de obtener mejores resultados en los SERP.

¿Cómo probar y validar su robots.txt?

Aunque puede ver el contenido de su robots.txt navegando a la URL de robots.txt, la mejor manera de probarlo y validarlo es a través de la opción de probador robots.txt de Google Search Console.

Inicie sesión en su cuenta de Google Search Console. Haga clic en el probador robots.txt, que se encuentra en Opciones de rastreo. Haga clic en el botón Prueba.

Si todo está bien, el botón Prueba se pondrá verde y la etiqueta cambiará a PERMITIDO. Si hay un problema, se resaltará la línea que causa un rechazo.

¿Qué es un archivo robots.txt virtual?

WordPress por defecto utiliza un archivo robots.txt virtual. Esto significa que no puede editar directamente el archivo ni encontrarlo en la raíz de su directorio.

La única forma de ver el contenido del archivo, es escribir https://www.yourdomain.com/robots.txt en su navegador.

Los valores predeterminados de WordPress robots.txt son:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Cuando activa la opción «Evitar que los motores de búsqueda indexen este sitio» en Configuración de visibilidad del motor de búsqueda, el robots.txt se convierte en:

User-agent: *
Disallow: /

Lo que básicamente impide que todos los rastreadores accedan al sitio web.

¿Por qué es importante Robots.txt?

Hay tres razones principales por las que usted desearía utilizar un archivo robots.txt.

  • Bloquear páginas no públicas: A veces tiene páginas en su sitio que no desea indexar. Por ejemplo, es posible que tenga una versión provisional de una página. O una página de inicio de sesión. Estas páginas tienen que existir. Pero no quiere que gente al azar aterrice sobre ellas. Este es un caso en el que usaría robots.txt para bloquear estas páginas de rastreadores y robots de motores de búsqueda.
  • Maximizar presupuesto de rastreo: Si le resulta difícil conseguir todas sus páginas indexadas, es posible que tenga un problema de presupuesto de rastreo. Al bloquear páginas sin importancia con robots.txt, el robot de Google puede gastar más de su presupuesto de rastreo en las páginas que realmente importan.
  • Evitar la indexación de recursos: El uso de metadirectivas puede funcionar igual de bien que Robots.txt para evitar que las páginas se indexen. Sin embargo, las metadirectivas no funcionan bien para recursos multimedia, como archivos PDF e imágenes. Ahí es donde robots.txt entra en juego.

Puede comprobar cuántas páginas ha indexado en Google Search Console.

Si el número coincide con el número de páginas que desea indexar, no es necesario que se moleste con un archivo Robots.txt.

Pero si ese número es mayor de lo esperado (y observa URL indexadas que no deberían indexarse), entonces es hora de crear un archivo robots.txt para su sitio web.

Robots.txt frente a metadirectivas

¿Por qué usaría robots.txt cuando puede bloquear páginas en el nivel de página con la metaetiqueta «noindex»?

Como se mencionó anteriormente, la etiqueta noindex es difícil de implementar en recursos multimedia, como vídeos y archivos PDF.

Además, si tiene miles de páginas que desea bloquear, a veces es más fácil bloquear toda la sección de ese sitio con robots.txt en lugar de agregar manualmente una etiqueta noindex a cada página.

También hay casos extremos en los que no desee desperdiciar ningún presupuesto de rastreo en Google en páginas de aterrizaje con la etiqueta noindex.

Cosas importantes sobre robots.txt
  • Robots.txt debe estar en la carpeta principal, es decir, domain.com/robots.txt.
  • Cada subdominio necesita su propio robots.txt (sub1.dominio.com, sub2.dominio.com,…) mientras que los multisitios solo requieren UN robots.txt (domain.com/multi1, domain.com/multi2,…).
  • Algunos rastreadores pueden ignorar robots.txt.
  • Las direcciones URL y el archivo robots.txt distinguen entre mayúsculas y minúsculas.
  • Google no respeta la demora de rastreo (ya que tiene su propio presupuesto de rastreo), pero puede administrar la configuración de rastreo en Google Search Console.
  • Validar el archivo robots.txt en Google Search Console y Herramientas para webmasters de Bing.
  • No bloquea el rastreo para evitar el contenido duplicado. No desautoriza las páginas que se redirigen. Los rastreadores no podrán seguir la redirección.
  • El tamaño máximo de un archivo robots.txt es 500 KB.

PS: Pagup recommends Site kit by Google plugin for insights & SEO performance.

Reseñas

16 de febrero de 2020
this plugin is all about selling you the pro version. Almost completely useless
4 de enero de 2020
This plugin is just great - I have built other websites previously and have been pleased with the sitemap and robots.txt that I have used - however, thought I would try this one, and I was pleasantly surprised by the amount of software you guys had put into the plugin, and - that it was easily embedded into google analytics with the sitemap being on the header of every page - and I didn't have to utilise my brainpower at all - everything was easypeasy and I now have a website, up there with google analytics and loads more and a really details robots.text which I have never used before. So thanks for all the hard work you guys have put into this, and may I take this opportunity of wishing you all at better-robots=txt a very happy and prosperous New Year!! Thanks again - Chrissy
6 de noviembre de 2019
Easy to use. Automatically sets everything up. Great site map that was found by Google Search Console. SEO made easy.
Leer todas las 53 reseñas

Colaboradores y desarrolladores

«WordPress Robots.txt optimización (+ Multisitio) — Tráfico del sitio web, clasificación & SEO Booster + WooCommerce» es un software de código abierto. Las siguientes personas han colaborado con este plugin.

Colaboradores

«WordPress Robots.txt optimización (+ Multisitio) — Tráfico del sitio web, clasificación & SEO Booster + WooCommerce» ha sido traducido a 3 idiomas locales. Gracias a los traductores por sus contribuciones.

Traduce «WordPress Robots.txt optimización (+ Multisitio) — Tráfico del sitio web, clasificación & SEO Booster + WooCommerce» a tu idioma.

¿Interesado en el desarrollo?

Revisa el código , echa un vistazo al repositorio SVN o suscríbete al registro de desarrollo por RSS.

Registro de cambios

1.0.0

  • Initial release.

1.0.1

  • fixed plugin directory url issue
  • some text improvements

1.0.2

  • fixed some minor issues with styling
  • improved text and translation

1.1.0

  • added some major improvements
  • allow/off option changed with allow/disallow/off
  • improved overall text and french translation

1.1.1

  • fixed a bug and improved code

1.1.2

  • added new feature «Spam Backlink Blocker»

1.1.3

  • fixed a bug

1.1.4

  • added new «personalize your robots.txt» feature to add custom signature
  • added recommended seo tools to improve search engine optimization

1.1.5

  • added feature to detect physical robots.txt file and delete it if server permissions allows

1.1.6

  • added russian and chinese (simplified) languages
  • fixed bug causing redirection to better robots.txt settings page upon activating other plugins

1.1.7

  • added new feature: Top plugins for SEO performance
  • fixed plugin notices issue to dismiss for define period of time after being closed
  • fixed stylesheet issue to get proper updated file after plugin update (cache buster)
  • added spanish and portuguese languages

1.1.8

  • added new feature: xml sitemap detection
  • fixed translations

1.1.9

  • added new feature: loading performance for woocommerce

1.1.9.1

  • fixed a bug in disallow rules for woocommerce

1.1.9.2

  • boost your site with alt tags

1.1.9.3

  • fixed readability issues

1.1.9.4

  • fixed default robots.txt file issue upon plugin activation for first time
  • fixed php error upon saving settings and permalinks
  • refactored code

1.1.9.5

  • added clean-param for yandex bot
  • ask backlinks feature for pro users
  • avoid crawler traps feature for pro users
  • improved default robots.txt rules

1.1.9.6

  • added 150+ growth hacking tools
  • fixed layout bug
  • updated default rules

1.2.0

  • Added Post Meta Box to Disable Indivdual post, pages and products (woocommerce pro only). It will add Disallow and Noindex rule in robots.txt for any page you choose to disallow from post meta box options.

1.2.1

  • Added multisite feature for directory based network sites (pro only). it can duplicate all default rules, yoast sitemap, woocommerce rules, bad bots, pinterest bot blocker, backlinks blocker etc with a single click for all directory based network sites.
  • Added version timestamp for wp_register_script ‘assets/rt-script.js’

1.2.2

  • Fixed some bugs creating error in google search console
  • Text improvement

1.2.3

  • Added «Hide your robots.txt from SERPs» feature
  • Text improvements

1.2.4

  • Fixed a bug
  • Text improvements

1.2.5

  • Fixed crawl-delay issue
  • Updated translations

1.2.5.1

  • Fixed a minor issue

1.2.6

  • Security patched in freemius sdk

1.2.6.1

  • Fixed Multisite Issue for pro users

1.2.6.2

  • Fixed Yoast sitemap issue for Multisite users

1.2.6.3

  • Fixed some text

1.2.7

  • Added Baidu/Sogou/Soso/Youdao – Chinese search engines features for pro users
  • Added social media crawl feature for pro users

1.2.8

  • Notification will be disabled for 4 months. Fixed some other minor stuff

1.2.9.2

  • Updated Freemius SDK v2.3.0
  • BIGTA recommendation

1.2.9.3

  • Fixed Undefined index error while saving MENUS for some sites
  • Removed «noindex» rule for individual posts as Google will stop supprting it from Sep 01 2019

1.3.0

  • Added 5 new rules to default config. Removed 4 old default rules which were cuasing some issues with WPML
  • Added a search rule to Avoid crawling traps
  • Added several new rules to Spam Backlink Blocker
  • Fixed security issues

1.3.0.1

  • VidSEO recommendation

1.3.0.2

  • Fixed some security issues
  • Added new rules to Backlink Protector (Pro only)
  • Multisite notification will be disabled permenantly once dismissed

1.3.0.3

  • Fixed php notice (in php log) for $host_url variable

1.3.0.4

  • Fixed php notice (in php log) for $active_tab variable
  • Fixed some typos