mirror of
https://github.com/catdevnull/preciazo.git
synced 2024-11-23 14:46:20 +00:00
mejorar contenedor de scraper
poder importar warcs especificos
This commit is contained in:
parent
8a49ddab7d
commit
fee0e1b872
6 changed files with 242 additions and 195 deletions
BIN
bun.lockb
BIN
bun.lockb
Binary file not shown.
|
@ -1,4 +1,5 @@
|
||||||
import Database from "bun:sqlite";
|
import Database from "bun:sqlite";
|
||||||
|
import { join } from "node:path";
|
||||||
import { drizzle } from "drizzle-orm/bun-sqlite";
|
import { drizzle } from "drizzle-orm/bun-sqlite";
|
||||||
import { migrate } from "drizzle-orm/bun-sqlite/migrator";
|
import { migrate } from "drizzle-orm/bun-sqlite/migrator";
|
||||||
import * as schema from "./schema.js";
|
import * as schema from "./schema.js";
|
||||||
|
@ -8,7 +9,7 @@ export function migrateDb() {
|
||||||
const sqlite = new Database(DB_PATH);
|
const sqlite = new Database(DB_PATH);
|
||||||
const db = drizzle(sqlite, { schema });
|
const db = drizzle(sqlite, { schema });
|
||||||
|
|
||||||
migrate(db, { migrationsFolder: "./drizzle" });
|
migrate(db, { migrationsFolder: join(import.meta.dir, "drizzle") });
|
||||||
sqlite.run(`
|
sqlite.run(`
|
||||||
pragma journal_mode = WAL;
|
pragma journal_mode = WAL;
|
||||||
PRAGMA synchronous = NORMAL;
|
PRAGMA synchronous = NORMAL;
|
||||||
|
|
|
@ -5,22 +5,23 @@ FROM base AS builder
|
||||||
ENV NODE_ENV=production
|
ENV NODE_ENV=production
|
||||||
COPY . .
|
COPY . .
|
||||||
RUN bun install --frozen-lockfile \
|
RUN bun install --frozen-lockfile \
|
||||||
&& bun build scraper/auto.ts --target=bun --outfile=/tmp/auto.build.js \
|
&& bun build scraper/cli.ts --target=bun --outfile=/tmp/cli.build.js \
|
||||||
&& rm -rf node_modules/
|
&& rm -rf node_modules/
|
||||||
|
|
||||||
FROM base
|
FROM base
|
||||||
RUN apk add --no-cache wget zstd cronie tini
|
RUN apk add --no-cache wget zstd cronie tini
|
||||||
RUN printf "#!/bin/sh\nexec bun /app/built.js" > /etc/periodic/daily/scraper \
|
RUN printf "#!/bin/sh\nexec bun /bin/scraper auto" > /etc/periodic/daily/scraper \
|
||||||
&& chmod +x /etc/periodic/daily/scraper
|
&& chmod +x /etc/periodic/daily/scraper
|
||||||
|
|
||||||
COPY --from=builder /tmp/auto.build.js /app/built.js
|
COPY --from=builder /tmp/cli.build.js /bin/scraper
|
||||||
COPY --from=builder /usr/src/app/db-datos/drizzle /app/drizzle
|
COPY --from=builder /usr/src/app/db-datos/drizzle /bin/drizzle
|
||||||
COPY --from=builder /usr/src/app/data /listas
|
COPY --from=builder /usr/src/app/data /listas
|
||||||
WORKDIR /app
|
WORKDIR /app
|
||||||
|
|
||||||
VOLUME /db
|
VOLUME /db
|
||||||
|
ENV NODE_ENV=production
|
||||||
ENV DB_PATH=/db/db.db
|
ENV DB_PATH=/db/db.db
|
||||||
ENV LISTS_DIR=/listas/
|
ENV LISTS_DIR=/listas/
|
||||||
|
|
||||||
CMD ["tini", "/usr/sbin/crond", "-n"]
|
CMD ["tini", "/usr/sbin/crond", "-n"]
|
||||||
# CMD ["bun", "/app/built.js"]
|
# CMD ["bun", "/bin/scraper"]
|
162
scraper/auto.ts
162
scraper/auto.ts
|
@ -10,28 +10,6 @@ import { S3Client } from "@aws-sdk/client-s3";
|
||||||
import { Upload } from "@aws-sdk/lib-storage";
|
import { Upload } from "@aws-sdk/lib-storage";
|
||||||
import { BunFile } from "bun";
|
import { BunFile } from "bun";
|
||||||
|
|
||||||
if (
|
|
||||||
!process.env.S3_ACCESS_KEY_ID ||
|
|
||||||
!process.env.S3_SECRET_ACCESS_KEY ||
|
|
||||||
!process.env.S3_BUCKET_NAME
|
|
||||||
)
|
|
||||||
throw new Error("missing s3 creds");
|
|
||||||
if (!process.env.TELEGRAM_BOT_TOKEN)
|
|
||||||
console.warn("no hay TELEGRAM_BOT_TOKEN, no voy a loggear por allá");
|
|
||||||
if (!process.env.TELEGRAM_BOT_CHAT_ID)
|
|
||||||
console.warn("no hay TELEGRAM_BOT_CHAT_ID, no voy a loggear por allá");
|
|
||||||
const { S3_BUCKET_NAME, S3_ACCESS_KEY_ID, S3_SECRET_ACCESS_KEY } = process.env;
|
|
||||||
|
|
||||||
// https://www.backblaze.com/docs/cloud-storage-use-the-aws-sdk-for-javascript-v3-with-backblaze-b2
|
|
||||||
const s3 = new S3Client({
|
|
||||||
endpoint: "https://s3.us-west-004.backblazeb2.com",
|
|
||||||
region: "us-west-004",
|
|
||||||
credentials: {
|
|
||||||
accessKeyId: S3_ACCESS_KEY_ID,
|
|
||||||
secretAccessKey: S3_SECRET_ACCESS_KEY,
|
|
||||||
},
|
|
||||||
});
|
|
||||||
|
|
||||||
const supermercados: Supermercado[] = [
|
const supermercados: Supermercado[] = [
|
||||||
Supermercado.Carrefour,
|
Supermercado.Carrefour,
|
||||||
Supermercado.Coto,
|
Supermercado.Coto,
|
||||||
|
@ -44,10 +22,53 @@ const compressionQueue = new PQueue({ concurrency: 1 });
|
||||||
// hacemos una cola para el scrapeo para no tener varios writers a la BD y no sobrecargar la CPU
|
// hacemos una cola para el scrapeo para no tener varios writers a la BD y no sobrecargar la CPU
|
||||||
const scrapQueue = new PQueue({ concurrency: 1 });
|
const scrapQueue = new PQueue({ concurrency: 1 });
|
||||||
|
|
||||||
supermercados.forEach(downloadList);
|
export async function auto() {
|
||||||
// await recompress("sqlite.db.gz", "sqlite.db.zst");
|
const a = new Auto();
|
||||||
|
await Promise.all(supermercados.map((supr) => a.downloadList(supr)));
|
||||||
|
}
|
||||||
|
|
||||||
async function downloadList(supermercado: Supermercado) {
|
class Auto {
|
||||||
|
s3Config?: { s3: S3Client; bucketName: string };
|
||||||
|
telegramConfig?: { token: string; chatId: string };
|
||||||
|
|
||||||
|
constructor() {
|
||||||
|
if (
|
||||||
|
!process.env.S3_ACCESS_KEY_ID ||
|
||||||
|
!process.env.S3_SECRET_ACCESS_KEY ||
|
||||||
|
!process.env.S3_BUCKET_NAME
|
||||||
|
) {
|
||||||
|
if (process.env.NODE_ENV === "development") {
|
||||||
|
console.warn("faltan creds de s3, no voy a subir a s3");
|
||||||
|
} else {
|
||||||
|
throw new Error("faltan creds de s3");
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
this.s3Config = {
|
||||||
|
// https://www.backblaze.com/docs/cloud-storage-use-the-aws-sdk-for-javascript-v3-with-backblaze-b2
|
||||||
|
s3: new S3Client({
|
||||||
|
endpoint: "https://s3.us-west-004.backblazeb2.com",
|
||||||
|
region: "us-west-004",
|
||||||
|
credentials: {
|
||||||
|
accessKeyId: process.env.S3_ACCESS_KEY_ID,
|
||||||
|
secretAccessKey: process.env.S3_SECRET_ACCESS_KEY,
|
||||||
|
},
|
||||||
|
}),
|
||||||
|
bucketName: process.env.S3_BUCKET_NAME,
|
||||||
|
};
|
||||||
|
}
|
||||||
|
|
||||||
|
if (!process.env.TELEGRAM_BOT_TOKEN)
|
||||||
|
console.warn("no hay TELEGRAM_BOT_TOKEN, no voy a loggear por allá");
|
||||||
|
else if (!process.env.TELEGRAM_BOT_CHAT_ID)
|
||||||
|
console.warn("no hay TELEGRAM_BOT_CHAT_ID, no voy a loggear por allá");
|
||||||
|
else
|
||||||
|
this.telegramConfig = {
|
||||||
|
token: process.env.TELEGRAM_BOT_TOKEN,
|
||||||
|
chatId: process.env.TELEGRAM_BOT_CHAT_ID,
|
||||||
|
};
|
||||||
|
}
|
||||||
|
|
||||||
|
async downloadList(supermercado: Supermercado) {
|
||||||
const listPath = resolve(
|
const listPath = resolve(
|
||||||
join(process.env.LISTS_DIR ?? "../data", `${supermercado}.txt`)
|
join(process.env.LISTS_DIR ?? "../data", `${supermercado}.txt`)
|
||||||
);
|
);
|
||||||
|
@ -74,42 +95,46 @@ async function downloadList(supermercado: Supermercado) {
|
||||||
});
|
});
|
||||||
const t0 = performance.now();
|
const t0 = performance.now();
|
||||||
await subproc.exited;
|
await subproc.exited;
|
||||||
inform(`wget para ${zstdWarcName} tardó ${formatMs(performance.now() - t0)}`);
|
this.inform(
|
||||||
|
`wget para ${zstdWarcName} tardó ${formatMs(performance.now() - t0)}`
|
||||||
|
);
|
||||||
|
|
||||||
const gzippedWarcPath = join(ctxPath, "temp.warc.gz");
|
const gzippedWarcPath = join(ctxPath, "temp.warc.gz");
|
||||||
if (!(await fileExists(gzippedWarcPath))) {
|
if (!(await fileExists(gzippedWarcPath))) {
|
||||||
const err = report(`no encontré el ${gzippedWarcPath}`);
|
const err = this.report(`no encontré el ${gzippedWarcPath}`);
|
||||||
throw err;
|
throw err;
|
||||||
}
|
}
|
||||||
|
|
||||||
await compressionQueue.add(() => recompress(gzippedWarcPath, zstdWarcPath));
|
await compressionQueue.add(() =>
|
||||||
|
this.recompress(gzippedWarcPath, zstdWarcPath)
|
||||||
|
);
|
||||||
if (!(await fileExists(zstdWarcPath))) {
|
if (!(await fileExists(zstdWarcPath))) {
|
||||||
const err = report(`no encontré el ${zstdWarcPath}`);
|
const err = this.report(`no encontré el ${zstdWarcPath}`);
|
||||||
throw err;
|
throw err;
|
||||||
}
|
}
|
||||||
|
|
||||||
scrapAndInform({ zstdWarcPath, zstdWarcName });
|
this.scrapAndInform({ zstdWarcPath, zstdWarcName });
|
||||||
|
|
||||||
try {
|
try {
|
||||||
await uploadToBucket({
|
await this.uploadToBucket({
|
||||||
fileName: zstdWarcName,
|
fileName: zstdWarcName,
|
||||||
file: Bun.file(zstdWarcPath),
|
file: Bun.file(zstdWarcPath),
|
||||||
});
|
});
|
||||||
} catch (error) {
|
} catch (error) {
|
||||||
inform(`Falló subir ${zstdWarcName} a S3; ${error}`);
|
this.inform(`Falló subir ${zstdWarcName} a S3; ${error}`);
|
||||||
console.error(error);
|
console.error(error);
|
||||||
}
|
}
|
||||||
|
|
||||||
// TODO: borrar archivos temporales
|
// TODO: borrar archivos temporales
|
||||||
}
|
}
|
||||||
|
|
||||||
async function scrapAndInform({
|
async scrapAndInform({
|
||||||
zstdWarcPath,
|
zstdWarcPath,
|
||||||
zstdWarcName,
|
zstdWarcName,
|
||||||
}: {
|
}: {
|
||||||
zstdWarcPath: string;
|
zstdWarcPath: string;
|
||||||
zstdWarcName: string;
|
zstdWarcName: string;
|
||||||
}) {
|
}) {
|
||||||
const res = await scrapQueue.add(async () => {
|
const res = await scrapQueue.add(async () => {
|
||||||
const t0 = performance.now();
|
const t0 = performance.now();
|
||||||
const progress = await parseWarc(zstdWarcPath);
|
const progress = await parseWarc(zstdWarcPath);
|
||||||
|
@ -118,21 +143,21 @@ async function scrapAndInform({
|
||||||
|
|
||||||
if (res) {
|
if (res) {
|
||||||
const { took, progress } = res;
|
const { took, progress } = res;
|
||||||
inform(
|
this.inform(
|
||||||
`Procesado ${zstdWarcName} (${progress.done} ok, ${
|
`Procesado ${zstdWarcName} (${progress.done} ok, ${
|
||||||
progress.errors.length
|
progress.errors.length
|
||||||
} errores) (tardó ${formatMs(took)})`
|
} errores) (tardó ${formatMs(took)})`
|
||||||
);
|
);
|
||||||
} else {
|
} else {
|
||||||
inform(`Algo falló en ${zstdWarcName}`);
|
this.inform(`Algo falló en ${zstdWarcName}`);
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
|
||||||
|
|
||||||
/**
|
/**
|
||||||
* toma un archivo gzippeado y lo recomprime con zstd.
|
* toma un archivo gzippeado y lo recomprime con zstd.
|
||||||
* borra el archivo original.
|
* borra el archivo original.
|
||||||
*/
|
*/
|
||||||
function recompress(inputPath: string, outputPath: string) {
|
recompress(inputPath: string, outputPath: string) {
|
||||||
// XXX: por alguna razón no funciona en Bun 1.0.20
|
// XXX: por alguna razón no funciona en Bun 1.0.20
|
||||||
// const decompressor = Bun.spawn({
|
// const decompressor = Bun.spawn({
|
||||||
// cmd: ["gzip", "-dc", inputPath],
|
// cmd: ["gzip", "-dc", inputPath],
|
||||||
|
@ -164,42 +189,60 @@ function recompress(inputPath: string, outputPath: string) {
|
||||||
decompressor.stdout.pipe(compressor.stdin);
|
decompressor.stdout.pipe(compressor.stdin);
|
||||||
compressor.on("close", (code) => {
|
compressor.on("close", (code) => {
|
||||||
if (code !== 0) {
|
if (code !== 0) {
|
||||||
const err = report(`zstd threw error code ${code}`);
|
const err = this.report(`zstd threw error code ${code}`);
|
||||||
reject(err);
|
reject(err);
|
||||||
}
|
}
|
||||||
resolve(void 0);
|
resolve(void 0);
|
||||||
});
|
});
|
||||||
});
|
});
|
||||||
}
|
}
|
||||||
|
|
||||||
async function uploadToBucket({
|
async uploadToBucket({
|
||||||
fileName,
|
fileName,
|
||||||
file,
|
file,
|
||||||
}: {
|
}: {
|
||||||
fileName: string;
|
fileName: string;
|
||||||
file: BunFile;
|
file: BunFile;
|
||||||
}) {
|
}) {
|
||||||
|
if (!this.s3Config) {
|
||||||
|
this.inform(
|
||||||
|
`[s3] Se intentó subir ${fileName} pero no tenemos creds de S3`
|
||||||
|
);
|
||||||
|
return;
|
||||||
|
}
|
||||||
const parallelUploads3 = new Upload({
|
const parallelUploads3 = new Upload({
|
||||||
client: s3,
|
client: this.s3Config.s3,
|
||||||
params: {
|
params: {
|
||||||
Bucket: S3_BUCKET_NAME,
|
Bucket: this.s3Config.bucketName,
|
||||||
Key: fileName,
|
Key: fileName,
|
||||||
Body: file,
|
Body: file,
|
||||||
},
|
},
|
||||||
});
|
});
|
||||||
await parallelUploads3.done();
|
await parallelUploads3.done();
|
||||||
}
|
}
|
||||||
|
|
||||||
function inform(msg: string) {
|
inform(msg: string) {
|
||||||
sendTelegramMsg(msg);
|
this.sendTelegramMsg(msg);
|
||||||
console.info(msg);
|
console.info(msg);
|
||||||
}
|
}
|
||||||
function report(msg: string) {
|
report(msg: string) {
|
||||||
inform(msg);
|
this.inform(msg);
|
||||||
const error = new Error(msg);
|
const error = new Error(msg);
|
||||||
|
|
||||||
return error;
|
return error;
|
||||||
|
}
|
||||||
|
|
||||||
|
async sendTelegramMsg(text: string) {
|
||||||
|
if (!this.telegramConfig) return;
|
||||||
|
const url = new URL(
|
||||||
|
`https://api.telegram.org/bot${this.telegramConfig.token}/sendMessage`
|
||||||
|
);
|
||||||
|
url.searchParams.set("chat_id", this.telegramConfig.chatId);
|
||||||
|
url.searchParams.set("text", text);
|
||||||
|
await fetch(url);
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
// await recompress("sqlite.db.gz", "sqlite.db.zst");
|
||||||
|
|
||||||
// no se llama exists porque bun tiene un bug en el que usa fs.exists por mas que exista una funcion llamada exists
|
// no se llama exists porque bun tiene un bug en el que usa fs.exists por mas que exista una funcion llamada exists
|
||||||
async function fileExists(path: string) {
|
async function fileExists(path: string) {
|
||||||
|
@ -211,17 +254,6 @@ async function fileExists(path: string) {
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
async function sendTelegramMsg(text: string) {
|
|
||||||
if (!process.env.TELEGRAM_BOT_TOKEN || !process.env.TELEGRAM_BOT_CHAT_ID)
|
|
||||||
return;
|
|
||||||
const url = new URL(
|
|
||||||
`https://api.telegram.org/bot${process.env.TELEGRAM_BOT_TOKEN}/sendMessage`
|
|
||||||
);
|
|
||||||
url.searchParams.set("chat_id", process.env.TELEGRAM_BOT_CHAT_ID);
|
|
||||||
url.searchParams.set("text", text);
|
|
||||||
await fetch(url);
|
|
||||||
}
|
|
||||||
|
|
||||||
function formatMs(ms: number) {
|
function formatMs(ms: number) {
|
||||||
return formatDuration(intervalToDuration({ start: 0, end: Math.round(ms) }));
|
return formatDuration(intervalToDuration({ start: 0, end: Math.round(ms) }));
|
||||||
}
|
}
|
||||||
|
|
|
@ -0,0 +1,19 @@
|
||||||
|
import { auto } from "./auto.js";
|
||||||
|
import { parseWarc } from "./scrap.js";
|
||||||
|
|
||||||
|
if (process.argv[2] === "auto") {
|
||||||
|
await auto();
|
||||||
|
} else if (process.argv[2] === "scrap") {
|
||||||
|
const warcPaths = process.argv.slice(3);
|
||||||
|
if (warcPaths.length > 0) {
|
||||||
|
for (const path of warcPaths) {
|
||||||
|
await parseWarc(path);
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
console.error("Especificá WARCs para scrapear.");
|
||||||
|
process.exit(1);
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
console.error("Especificá una acción (tipo `auto` o `scrap`) para hacer.");
|
||||||
|
process.exit(1);
|
||||||
|
}
|
|
@ -32,12 +32,6 @@ const getPrevPrecio = db
|
||||||
.limit(1)
|
.limit(1)
|
||||||
.prepare();
|
.prepare();
|
||||||
|
|
||||||
if (process.argv[1].endsWith("/scrap.ts")) {
|
|
||||||
for (const path of process.argv.slice(2)) {
|
|
||||||
await parseWarc(path);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
export type Precio = typeof schema.precios.$inferInsert;
|
export type Precio = typeof schema.precios.$inferInsert;
|
||||||
export type Precioish = Omit<
|
export type Precioish = Omit<
|
||||||
Precio,
|
Precio,
|
||||||
|
|
Loading…
Reference in a new issue