package com.entrym.main;import java.io.File;import java.io.IOException;import org.openqa.selenium.WebDriver;import org.openqa.selenium.chrome.ChromeDriver;public class RebootRouter2 { private static final String CHROME_HOME=new File("config/chromedriver.exe").getAbsolutePath(); private static final String CHROME_HOME_LINUX=new File("config/chromedriver").getAbsolutePath(); public static void main(String[] args) throws IOException { WebDriver driver=null; String osname=System.getProperty("os.name").toLowerCase(); //判断操作系统,使用不同的文件 if(osname.indexOf("linux")>=0){ System.setProperty("webdriver.chrome.driver", CHROME_HOME_LINUX); }else{ System.setProperty("webdriver.chrome.driver", CHROME_HOME); } driver=new ChromeDriver(); driver.get("https://www.baidu.com"); //打开路由器的用户的登录页面 driver.manage().window().maximize(); //将浏览器最大化 driver.get("http://www.sohu.com"); } }
学了一段时间的selenium 感觉和jsoup有点相似,都是可以通过id,name,classname,xpath等标签属性获取网页的内容。