ページタイトルを取得するものです
使い道はあるのかわかりません
使い道はあるのかわかりません
webページとしてならまだ使えるかもなのですが、Chromeの拡張機能で機能は入力されたURLのタイトルを持ってくるだけ
いつ使うんだ??
自分でも思います
拡張機能になった理由はJavaScriptだけでやろうとするとxhrのクロスドメインがどうとかいうエラーで別のサーバのページアクセスできないから
サーバ持ってると楽なんですけどねー
あとJavaScriptで並列処理するWorkerを試そうかと思ってWorkerも使えるようになってます
が、xhrの処理なので特に意味が無いです
それどころかURLの数が多くなるとChromeがクラッシュします
完全に使い道を間違っている
そんなわけですがとりあえず紹介です
こんな画面です

見ての通りですが、上にURLをエンター区切りで入力して、右のページタイトル取得を押します
下が結果です
連番、URL、タイトル の順に並んでます
非同期のxhr使ってるので 順番は入力と一緒とは限りません
右上のUse Workerにチェックするとworker使って処理します
特に早くならないうえ、URL数が多いとクラッシュするので使う必要ないです
URLはh抜き、http://抜きに対応してます
結果をダウンロード を押すとcsv形式でダウンロードできます
これだけが唯一価値がありそうです
-ダウンロード-
gpt.crx
crxファイルのインストはこちらを参考にしてください
いつ使うんだ??
自分でも思います
拡張機能になった理由はJavaScriptだけでやろうとするとxhrのクロスドメインがどうとかいうエラーで別のサーバのページアクセスできないから
サーバ持ってると楽なんですけどねー
あとJavaScriptで並列処理するWorkerを試そうかと思ってWorkerも使えるようになってます
が、xhrの処理なので特に意味が無いです
それどころかURLの数が多くなるとChromeがクラッシュします
完全に使い道を間違っている
そんなわけですがとりあえず紹介です
こんな画面です

見ての通りですが、上にURLをエンター区切りで入力して、右のページタイトル取得を押します
下が結果です
連番、URL、タイトル の順に並んでます
非同期のxhr使ってるので 順番は入力と一緒とは限りません
右上のUse Workerにチェックするとworker使って処理します
特に早くならないうえ、URL数が多いとクラッシュするので使う必要ないです
URLはh抜き、http://抜きに対応してます
結果をダウンロード を押すとcsv形式でダウンロードできます
これだけが唯一価値がありそうです
-ダウンロード-
gpt.crx
crxファイルのインストはこちらを参考にしてください
コメントする