db-datos sin typescript, actualizar readme

This commit is contained in:
Cat /dev/Nulo 2024-01-13 22:07:23 -03:00
parent 260aab1ea2
commit 68bea964be
7 changed files with 49 additions and 25 deletions

View file

@ -1,5 +1,6 @@
import { Database } from "bun:sqlite";
import { drizzle } from "drizzle-orm/bun-sqlite";
// @ts-check
import Database from "better-sqlite3";
import { drizzle } from "drizzle-orm/better-sqlite3";
import { DB_PATH } from "./drizzle.config.js";
import { migrateDb } from "./migrate.js";
import * as schema from "./schema.js";

View file

@ -1,11 +1,10 @@
import type { Config } from "drizzle-kit";
export const DB_PATH = process.env.DB_PATH ?? "../scraper/sqlite.db";
/** @type { import("drizzle-kit").Config } */
export default {
schema: "./schema.ts",
out: "./drizzle",
dbCredentials: {
url: DB_PATH,
},
} satisfies Config;
};

View file

@ -1,7 +1,8 @@
import Database from "bun:sqlite";
// @ts-check
import Database from "better-sqlite3";
import { join, dirname } from "node:path";
import { drizzle } from "drizzle-orm/bun-sqlite";
import { migrate } from "drizzle-orm/bun-sqlite/migrator";
import { drizzle } from "drizzle-orm/better-sqlite3";
import { migrate } from "drizzle-orm/better-sqlite3/migrator";
import * as schema from "./schema.js";
import { DB_PATH } from "./drizzle.config.js";
@ -11,7 +12,7 @@ export function migrateDb() {
const db = drizzle(sqlite, { schema });
migrate(db, { migrationsFolder: join(dirname(url.pathname), "drizzle") });
sqlite.run(`
sqlite.exec(`
pragma journal_mode = WAL;
PRAGMA synchronous = NORMAL;
`);

View file

@ -5,15 +5,19 @@
"description": "",
"main": "index.js",
"scripts": {
"generate": "drizzle-kit generate:sqlite"
"generate": "drizzle-kit generate:sqlite",
"migrate": "node db.js"
},
"keywords": [],
"author": "",
"license": "ISC",
"dependencies": {
"better-sqlite3": "^9.2.2",
"drizzle-orm": "^0.29.1"
},
"devDependencies": {
"@types/better-sqlite3": "^7.6.8",
"@types/node": "^20.10.6",
"drizzle-kit": "^0.20.7"
}
}

View file

@ -1,3 +1,4 @@
// @ts-check
import { index, integer, sqliteTable, text } from "drizzle-orm/sqlite-core";
export const precios = sqliteTable(
@ -18,10 +19,10 @@ export const precios = sqliteTable(
return {
preciosEanIdx: index("precios_ean_idx").on(precios.ean),
};
}
},
);
export type Precio = typeof precios.$inferSelect;
/** @typedef {typeof precios.$inferSelect} Precio */
export const productoUrls = sqliteTable("producto_urls", {
id: integer("id", { mode: "number" }).primaryKey({ autoIncrement: true }),
@ -30,4 +31,4 @@ export const productoUrls = sqliteTable("producto_urls", {
lastSeen: integer("last_seen", { mode: "timestamp" }).notNull(),
});
export type ProductUrl = typeof productoUrls.$inferSelect;
/** @typedef {typeof productoUrls.$inferSelect} ProductUrl */

View file

@ -8,10 +8,19 @@ importers:
db-datos:
dependencies:
better-sqlite3:
specifier: ^9.2.2
version: 9.2.2
drizzle-orm:
specifier: ^0.29.1
version: 0.29.3(@types/better-sqlite3@7.6.8)(better-sqlite3@9.2.2)
devDependencies:
'@types/better-sqlite3':
specifier: ^7.6.8
version: 7.6.8
'@types/node':
specifier: ^20.10.6
version: 20.11.0
drizzle-kit:
specifier: ^0.20.7
version: 0.20.12

View file

@ -2,31 +2,40 @@
scrapeo "masivo" de precios y datos en supermercados argentinos
## componentes (en orden de proceso)
## componentes
- los link scrapers ([link-scrapers/](./link-scrapers/)) crean listas de links a productos para scrapear
### scraper-rs
(no hace falta correrlos porque ya hay listas armadas en [data/](./data/))
el [scraper](./scraper-rs/) busca links de productos a scrapear, descarga todos los links, extrae varios datos y los guarda en una base de datos SQLite (definida en [db-datos](./db-datos/schema.ts)).
- el [scraper](./scraper/) descarga todos los links, extrayendo varios datos y guardandolos en una base de datos SQLite (definida en [db-datos](./db-datos/schema.ts))
- el [sitio](./sitio/) renderiza páginas a partir de la base de datos y hace gráficos lindos
(antes había un scraper escrito en JavaScript, pero por problemas de _reliability_ lo reescribí en Rust (?))
### sitio
el [sitio](./sitio/) renderiza páginas a partir de la base de datos y hace gráficos lindos.
## setup
hay que instalar [Bun](https://bun.sh/), que lo estoy usando porque hacía que el scraper corra más rápido. quizás en el futuro lo reemplace con good old Node.js.
para el schema de la base de datos y el sitio, es necesario [Node.js](https://nodejs.org/) y [pnpm](https://pnpm.io/). para el scraper, es necesario [Rust](https://www.rust-lang.org/) estable.
crea la base de datos:
```
cd db-datos/
pnpm install
pnpm migrate
```
después, escrapea un sample de productos de Carrefour a una BD:
```
cd scraper/
bun install
bun cli.ts scrap ./data/samples/Carrefour.50.txt
cd ../scraper-rs/
cargo run -- fetch-list ../data/samples/Carrefour.50.txt
```
ahora miralo en el sitio:
```
cd sitio/
bun install
bun dev
cd ../sitio/
pnpm install
pnpm dev
```