汪星人 发表于 2014-11-14 13:20

java如何抓取网页

程序逻辑:
从文件config.txt读取url链接,根据url打开输入流,将接收到的网页内容保存到文件。
package com.changying.spider;

import java.io.BufferedReader;
import java.io.File;
import java.io.FileOutputStream;
import java.io.FileReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URL;

public class Spider {
        public static void main(String[] args) throws IOException {
                System.out.println(args);
                System.out.println(args);
                File config = new File(args);
                //System.out.println("Hello World!");
               
                BufferedReader fileReader = new BufferedReader(new FileReader(config));
                String strUrl = fileReader.readLine();
                System.out.println(strUrl);
                URL url = new URL(strUrl);
                InputStream in = url.openStream();
                File resultFile = new File(args + "\\url001.html");
                if (!resultFile.exists()) {
                        resultFile.createNewFile();
                }
                //OutputStream result = new FileOutputStream(args + "\\url001.html");
                OutputStream result = new FileOutputStream(resultFile);
               
                byte[] buffer = new byte;
                int bytes_read;
               
                while ((bytes_read = in.read(buffer)) != -1) {
                        result.write(buffer, 0, bytes_read);
                }
                fileReader.close();
                in.close();
                result.close();
        }
}




wang1026613528 发表于 2016-5-15 20:49

这也行
页: [1]
查看完整版本: java如何抓取网页