博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
福大软工1816 · 第五次作业 - 结对作业2
阅读量:5364 次
发布时间:2019-06-15

本文共 13447 字,大约阅读时间需要 44 分钟。

一、前言

结对队友:031602410 黄海潮

二、分工细则

苏路明:

  • Python爬虫设计
  • 完善参数传入部分,词组分割部分,代码整合
  • 单元测试&代码覆盖率&性能测试
  • 附加题设计

黄海潮:

  • Python爬虫设计
  • java版词频统计,整改个人作业一成结对作业二

三、PSP表格

PSP2.1 Personal Software Process Stages 预估耗时(分钟) 实际耗时(分钟)
Planning 计划 100 150
· Estimate · 估计这个任务需要多少时间 100 150
Development 开发 700 900
· Analysis · 需求分析 (包括学习新技术) 150 200
· Design Spec · 生成设计文档 40 60
· Design Review · 设计复审 100 150
· Coding Standard · 代码规范 (为目前的开发制定合适的规范) 0 0
· Design · 具体设计 100 150
· Coding · 具体编码 0 0
· Code Review · 代码复审 0 0
· Test · 测试(自我测试,修改代码,提交修改) 0 0
Reporting 报告 90 160
· Test Repor · 测试报告 90 130
· Size Measurement · 计算工作量 5 5
· Postmortem & Process Improvement Plan · 事后总结, 并提出过程改进计划 30 50
合计 1505 2105

四、解题思路描述与设计实现说明

爬虫使用

自己使用java导入jsoup实现爬虫
1.给定网站地址

String rooturl = "http://openaccess.thecvf.com/CVPR2018.py";        getContent(rooturl);

2.对每一篇进行爬取并所需的信息并且按照正确的格式输出到result.txt中

try {            File file = new File("cvpr\\result.txt");            BufferedWriter bufferedWriter= new BufferedWriter(new FileWriter(file));            org.jsoup.nodes.Document document = Jsoup.connect(rooturl).maxBodySize(0)                                                .timeout(1000000)                                                .get();            Elements elements =  document.select("[class=ptitle]");            Elements hrefs = elements.select("a[href]");            int count = 0;            for(Element element:hrefs) {                String url = element.absUrl("href");                org.jsoup.nodes.Document documrnt2 = Jsoup.connect(url).maxBodySize(0)                                                    .timeout(1000000)                                                    .get();                Elements elements2 = (Elements) documrnt2.select("[id=papertitle]");                String title = elements2.text();                if(count != 0)                    bufferedWriter.write("\r\n" + "\r\n" + "\r\n");                bufferedWriter.write(count + "\r\n");                bufferedWriter.write("Title: " + title + "\r\n");                Elements elements3 = (Elements) documrnt2.select("[id=abstract]");                String Abstract = elements3.text();                bufferedWriter.write("Abstract: " + Abstract);                count++;            }            bufferedWriter.close();        }catch (Exception e) {            // TODO: handle exception            e.printStackTrace();        }

代码组织与内部实现设计(类图)

  • 类图:

    1473263-20181010142417425-1619477545.png
    关于部分函数的结构及其函数的接口如下:
    public static String Read(String pathname) //对文件进行读取且处理 public static void FindWordArray(List<String> tempLists, int len, String wordsLine)//寻找符合题意的词组 public static void WordCount(List<String> tempLists,int weight)//统计权重 public static void SortMap(Map<String,Integer> oldmap,int wordline,int wordcount,int characterscount,int flagN)//进行排序并输出

  • 流程图:

    1473263-20181010135852642-1938576913.png

  • 说明算法的关键与关键实现:

    1.首先先对文本进行读取,且进行预处理,将文本内容转换为小写

    2.使用Pattern和Matcher对爬取出来的Title及Abstract内容进行抽取出来,此时readline()逐行进行抽取,并且进行字符数和行数的统计
    3.根据之前的题意,对单词合法性进行判断,不合法的单词不进行处理
    4. 对词组进行分割,此时进行统计单词数
    5.根据判断w是否为1,进行单词或词组的权重统计
    6.进行排序后根据题意输出

五、附加题设计与展示

1.爬取作者信息,生成CVPR2018最强作者排行榜(将作者按关联论文数排序输出)

1474721-20181012150622356-219586908.png

2.爬取2014-2018年份的CVPR论文,按年份输出并分析论文数量趋势(部分链接404导致丢失部分论文)

趋势图(待)

3.五年汇总大牛词云(部分链接404导致丢失部分词汇)

1474721-20181012150310180-1317256387.png

4.近五年论文的热门词汇词云

1474721-20181012150323933-1818306734.png

六、关键代码解释

  • 部分代码展示如下:
public static String Read(String pathname) throws Exception {//      Scanner scanner=new Scanner(System.in);//      String pathname=scanner.nextLine();        Reader myReader = new FileReader(pathname);        Reader myBufferedReader = new BufferedReader(myReader);                //先对文本处理                CharArrayWriter  tempStream = new CharArrayWriter();        int i = -1;        do {            if(i!=-1)                tempStream.write(i);            i = myBufferedReader.read();            if(i >= 65 && i <= 90){                    i += 32;            }        }while(i != -1);        myBufferedReader.close();        Writer myWriter = new FileWriter(pathname);        tempStream.writeTo(myWriter);        tempStream.flush();        tempStream.close();        myWriter.close();        return pathname;    }
String readLine = null;        Pattern pattern1 = Pattern.compile("(title): (.*)");        Pattern pattern2 = Pattern.compile("(abstract): (.*)");        while((readLine = bufferedReader.readLine()) != null)        {              Matcher matcher1=pattern1.matcher(readLine);            Matcher matcher2=pattern2.matcher(readLine);            if(matcher1.find())            {                  characterscount+=matcher1.group(2).length();                wordline++;//              System.out.println(matcher1.group(2));                String[] wordsArr1 = matcher1.group(2).split("[^a-zA-Z0-9]");  //过滤                for (String newword : wordsArr1) {                    if(newword.length() != 0){                          if((newword.length()>=4)&&(Character.isLetter(newword.charAt(0))&&Character.isLetter(newword.charAt(1))&&Character.isLetter(newword.charAt(2))&&Character.isLetter(newword.charAt(3))))                         {                            wordcount++;                            if(len == 1)                                lib.titleLists.add(newword);                        }                     }                }                                //new                String wordsLine = matcher1.group(2);//              System.out.println("wordsLine " + wordsLine);                if(len != 1 || wordsLine.length() < 4) {                    lib.FindWordArray(lib.titleLists, len, wordsLine);                }             }             if(matcher2.find())             {                 characterscount+=matcher2.group(2).length();                 wordline++;                 //System.out.println(matcher1.group(2));                 String[] wordsArr2 = matcher2.group(2).split("[^a-zA-Z0-9]");  //过滤                 for (String newword : wordsArr2) {                      if(newword.length() != 0){                        if((newword.length()>=4)&&(Character.isLetter(newword.charAt(0))&&Character.isLetter(newword.charAt(1))&&Character.isLetter(newword.charAt(2))&&Character.isLetter(newword.charAt(3))))                         {                            wordcount++;                            if(len == 1)                                lib.abstractLists.add(newword);                          }                    }                  }                                  String AbsLine = matcher2.group(2);                 if(len != 1 || AbsLine.length() < 4) {                    lib.FindWordArray(lib.abstractLists, len, AbsLine);                 }             }        }
public static void FindWordArray(List
tempLists, int len, String wordsLine) { int tempi = 0; int cnti = 0; int cntt = 0; String temp = ""; String[] words = new String[len]; String[] separators = new String[len]; for(int i = 0; i < wordsLine.length(); i++) { //The four words in front of a new word if (tempi < 4 && Character.isLetter(wordsLine.charAt(i))) { tempi ++;// System.out.println("<4 " + i + " " + wordsLine.charAt(i)); temp = temp + wordsLine.charAt(i); //A new word appear. if (i == wordsLine.length() - 1) { words[cnti%len] = temp; cnti ++; cntt ++;// System.out.println("word " + temp); //A new wordarray appear. if(cntt == len) { String wordArray = ""; for(int j = 0; j < len; j++) { wordArray = wordArray + words[(cnti + j)%len]; if(j != len-1) wordArray = wordArray + separators[(cnti + j)%len]; } tempLists.add(wordArray);// System.out.println("wordArray " + wordArray); cntt --; } } } else if (tempi >= 4) { tempi ++; if(Character.isLetter(wordsLine.charAt(i)) || Character.isDigit(wordsLine.charAt(i))) {// System.out.println("1 >=4 " + i + " " + wordsLine.charAt(i)); temp = temp + wordsLine.charAt(i); //A new word appear. if (i == wordsLine.length() - 1) { words[cnti%len] = temp; cnti ++; cntt ++;// System.out.println("word " + temp); //A new wordArray appear. if(cntt == len) { String wordArray = ""; for(int j = 0; j < len; j++) { wordArray = wordArray + words[(cnti + j)%len]; if(j != len-1) wordArray = wordArray + separators[(cnti + j)%len]; } // add wordArray to list tempLists.add(wordArray);// System.out.println("wordArray " + wordArray); cntt --; } } } else {// System.out.println("2 >=4 " + i + " " + wordsLine.charAt(i)); //A new word appear.And a separator appear. words[cnti%len] = temp; cnti ++; cntt ++;// System.out.println("word 123 " + temp); if(cntt == len) { String wordArray = ""; for(int j = 0; j < len; j++) { wordArray = wordArray + words[(cnti + j)%len]; if(j != len-1) wordArray = wordArray + separators[(cnti + j)%len]; }// add wordArray to list tempLists.add(wordArray);// System.out.println("wordArray " + wordArray); cntt --; } if (i + 4 >= wordsLine.length()) break; tempi = 0; temp = ""; //draw a separator String tempSeparator = "" + wordsLine.charAt(i);// System.out.println("Separator" + tempSeparator + "123"); for(int j = 1; j < wordsLine.length() - i; j++) { if( Character.isDigit(wordsLine.charAt(i+j)) || Character.isLetter(wordsLine.charAt(i+j)) ) {// System.out.println("123"); temp = ""; separators[(cnti-1)%len] = tempSeparator; break; } else tempSeparator = tempSeparator + wordsLine.charAt(i+j); } } } //A invalid word appear else {// System.out.println("invalid " + i + "" + wordsLine.charAt(i)); if (i + 4 >= (int)wordsLine.length()) break; tempi = 0; temp = ""; cnti = 0; cntt = 0; } } }
public static void WordCount(List
tempLists,int weight) { for (String li : tempLists) { if(wordsCount.get(li) != null){ wordsCount.put(li,wordsCount.get(li) + weight); }else{ wordsCount.put(li,weight); } } }
public static void SortMap(Map
oldmap,int wordline,int wordcount,int characterscount,int flagN) throws IOException{ ArrayList
> list = new ArrayList
>(oldmap.entrySet()); Collections.sort(list,new Comparator
>(){ @Override public int compare(Entry
o1, Entry
o2) { return o2.getValue() - o1.getValue(); //降序 } }); File file = new File("result.txt"); BufferedWriter bi = new BufferedWriter(new FileWriter(file)); bi.write("characters: "+characterscount+"\r\n"); bi.write("words: "+wordcount+"\r\n"); bi.write("lines: "+wordline+"\r\n"); int flag = 0; for(int i = 0; i
=flagN) break; if(list.get(i).getKey().length()>=4) bi.write("<"+list.get(i).getKey()+">"+ ": " +list.get(i).getValue()+"\r\n"); flag++; } bi.close(); }

七、性能分析与改进

  • 改进思路
    1.统计单词和统计词组是分离的,导致程序性能有所下降,可改善整合统计单词和统计词组部分。
    2.在分割词组时,采用逐字符读取,使用循环数组保存单词和分隔符,如改善使用正则匹配,性能应该会有所提升。
    3.在统计长文件时,字符数会和他人有所不同(貌似一人一个答案),寻求了解决方案后发现好像是由于存在非ASCII码的原因,改善问题不在此次作业范围内。
    4.其余部分在个人作业时,所表现的性能还是比较好的,暂时没有改善的思路。
  • 代码覆盖率

    1474721-20181011012221999-434837612.png

  • 性能测试

    1474721-20181011012338814-438969164.png

八、单元测试

以下为我进行的单元测试,包含大概的描述和输出的信息

1473263-20181012184137577-1083130898.png

九、Github的代码签入记录

1474721-20181011012156540-1796481234.png

十、遇到的代码模块异常或结对困难及解决方法

  • 问题描述
    1.使用python进行爬虫时有时候缺少部分内容
    2.使用正则分割去出单词时,无法保留最后需输出的分隔符
  • 做过哪些尝试
    1.对代码进行查错,上网查询类似问题及解决方法,对代码进行改进。
    2.对正则进行更多学习了解,使用其他方法进行分割保留分隔符
  • 是否解决
    通过重新学习写一个java的爬虫解决问题.
  • 有何收获
    解决一个问题的时候,如果一种方式怎么样都做不到,解决不了,可以尝试换一种方法来解决

十一、我的队友

  • java基础不错,一点点java基础的我,决定在这次软工实践中多多锻炼加强学习,好在队友java比我好多了,着实抱到大腿了,希望他可以继续带飞我。
  • 遇到问题都会寻求解决方法而不是退缩,赞!
  • 态度积极,值得学习。

十二、学习进度条

第N周 新增代码(行) 累计代码(行) 本周学习耗时(小时) 累计学习耗时(小时) 重要成长
1 300 300 8 8 入门Visual studio的使用(包括单元测试)
2 0 300 6 14 了解正则表达式的使用
3 0 300 10 24 加深掌握了Axure的使用,学会了使用NABCD模型进行需求分析
4 500 800 36 60 加强了python/java爬虫基础,在java代码方面有很大的提升,解除了数据分析和可视化设计

转载于:https://www.cnblogs.com/Sulumer/p/9766760.html

你可能感兴趣的文章
php环境搭建脚本
查看>>
php 编译常见错误
查看>>
MES架构
查看>>
高性能JavaScript-JS脚本加载与执行对性能的影响
查看>>
hdu 2767(tarjan)
查看>>
sklearn之分类模型混淆矩阵和分类报告
查看>>
MySQL各存储引擎
查看>>
项目--简单导出CSV文件
查看>>
Oracle session相关数据字典(一)
查看>>
织梦文章内容提取第一张或者多张图片输出
查看>>
C#用正则表达式 获取网页源代码标签的属性或值
查看>>
BZOJ 3399 [Usaco2009 Mar]Sand Castle城堡(贪心)
查看>>
WCF(一) 简单的认知
查看>>
[MFC][DShow]简单例子
查看>>
js onclick事件传参
查看>>
WiCloud 商业Wi-Fi管理平台
查看>>
团队项目--未完待续
查看>>
双重标准,我该怎么解决
查看>>
python中的网页标签等字符处理
查看>>
Linux常用命令(十二)
查看>>