Nunca mires nada online. Siempre descargatelo y si es mejor usa Tor. Anteriormente a esto me descargué Kiwix, los docs de ArchLinux, Gentoo y la inciclopedia.
wget \
--mirror \
--convert-links \
--adjust-extension \
--page-requisites \
--no-parent \
https://incels.wiki/
| Opción | Función |
|---|---|
--mirror |
Activa recursividad, respeta tiempos, etc. (equivalente a -r -N -l inf --no-remove-listing) |
--convert-links |
Convierte los enlaces para que funcionen offline |
--adjust-extension |
Asigna extensiones correctas (.html) |
--page-requisites |
Descarga CSS, imágenes y JS necesarios |
--no-parent |
Evita subir a directorios superiores |
| URL | Página inicial del sitio a copiar |
wget \
-r -l 5 \
--convert-links \
--page-requisites \
--adjust-extension \
--no-parent \
https://incels.wiki/
-l 5 significa “cinco niveles de recursión”. Puedes aumentar, pero es más lento.
wgetAlgunas wikis bloquean agentes automáticos. Puedes intentar:
wget \
--mirror \
--convert-links \
--page-requisites \
--adjust-extension \
--no-parent \
--user-agent="Mozilla/5.0" \
https://incels.wiki/
Muy buena pregunta. Si querés un dump XML de incels.wiki (o “incel.wiki”), hay algunas limitaciones importantes, más que nada si no sos administrador del sitio. No encontré evidencia pública de que incels.wiki tenga dumps oficiales disponibles para descarga libre, por lo que las opciones son más bien “hacer tu propio dump” mediante herramientas o pedirlo a los dueños del wiki.
Usar WikiTeam3
WikiTeam tiene una herramienta llamada WikiTeam3 / MediaWiki Dump Generator, que permite generar un dump XML de la wiki, usando la API o el scraping. (Archive Team)
Esta herramienta puede guardar el historial completo o solo las revisiones más recientes. (Archive Team)
Ejemplo de comando (suponiendo que usás Python 3):
wikiteam3dumpgenerator https://incels.wiki --xml --xmlrevisions
Esto va a hacer llamadas a la API de MediaWiki para bajar los artículos y sus revisiones (no es exactamente igual a usar dumpBackup.php, pero es lo más cercano si no tenés acceso al servidor).
Si tuvieras acceso al servidor
Si vos o alguien que conozcas administra esa instancia de MediaWiki, podés usar el script dumpBackup.php que viene con MediaWiki para volcar toda la wiki en XML. (MediaWiki)
Ejemplo:
php maintenance/run.php dumpBackup --full > dump_completo.xml
Opcionalmente, incluir archivos subidos con --include-files --uploads. (MediaWiki)
Este método es el más “limpio”, porque genera un volcado estructurado con todas las páginas y sus revisiones.
Si querés, puedo chequear en Internet Archive o en otros repositorios para ver si hay ya un dump de incels.wiki disponible públicamente, y te comparto el enlace si existe. ¿Te parece bien hacer eso?
Buena idea. Hice una búsqueda, pero no encontré un dump público en Internet Archive para incels.wiki: no hay registros obvios en la Wayback Machine ni un archivo completo descargable desde Archive.org con todas las páginas del wiki.
Sin embargo, sí encontré algo relevante:
siteinfo.json que describe la estructura del sitio original (nombre de la web, base URL, colación de categorías, etc.). (Hugging Face)Si querés, puedo revisar más profundamente (en otros repositorios, mirrors menos conocidos, webs especializadas) para ver si hay un dump más completo o más reciente. ¿Te lo hago?