High address와 Low address는 컴퓨터 메모리의 두 방향을 나타내는 용어이다.
Low address는 메모리의 시작 부분을 가리키며, 보통 값이 작은 주소를 가리킨다. High address는 메모리의 끝 부분을 가리키며, 보통 값이 큰 주소를 가리킨다.
주소값은 CPU 아키텍처에 따라 다르지만, 대개는 메모리 주소의 첫 번째 바이트부터 마지막 바이트까지 16진수로 표현된다. 따라서 Low address는 0x00000000으로 시작하고 High address는 0xFFFFFFFF(32비트 시스템의 경우) 또는 0xFFFFFFFFFFFFFFFF(64비트 시스템의 경우)로 끝난다.
Low address와 High address는 주로 포인터(Pointer)나 배열(Array)과 같은 데이터 구조에서 사용된다. 포인터나 배열의 시작 주소를 나타낼 때 Low address를 사용하고, 데이터 구조의 끝을 나타낼 때 High address를 사용한다.
예를 들어, 다음과 같은 배열을 생각해보자:
int arr[] = {1, 2, 3, 4, 5};
배열의 첫 번째 요소인 1은 arr[0]에 저장되어 있으며, 이는 배열의 Low address를 나타낸다. 배열의 마지막 요소인 5는 arr[4]에 저장되어 있으며, 이는 배열의 High address를 나타낸다.
AJAX란 '비동기식 자바스크립트와 XML'의 약자입니다. 이는 전체 페이지를 새로 고치지 않고도 페이지 내용을 업데이트할 수 있는 웹 페이지를 만드는 기술입니다. 자바스크립트를 사용하여 서버에 비동기식 요청을 보내고 페이지 내용을 동적으로 업데이트함으로써 이를 구현합니다.
AJAX를 사용하면 데이터를 서버에서 가져와 페이지를 전체적으로 새로 고치지 않고도 페이지를 업데이트할 수 있으므로 더 빠르고 더 매끄러운 사용자 경험을 제공할 수 있습니다. 요즘에는 JSON이 데이터 형식으로 더 많이 사용되어 AJAX 기반 애플리케이션에서 클라이언트와 서버 간 데이터를 교환하는 데 사용됩니다.
ajax 예시
예를 들어, 웹 페이지에 코멘트를 추가하는 기능이 있다고 가정해봅시다. 일반적으로 사용자는 코멘트를 작성하고 "제출" 버튼을 클릭합니다. 그러면 전체 페이지가 새로고침되고 새로운 코멘트가 표시됩니다.
그러나 AJAX를 사용하면 전체 페이지를 새로 고치지 않고도 새로운 코멘트를 추가할 수 있습니다. 사용자가 "제출" 버튼을 클릭하면, 자바스크립트가 서버에 비동기식으로 요청을 보내서 데이터를 가져옵니다. 그런 다음, 자바스크립트는 페이지의 일부를 업데이트하여 새로운 코멘트를 추가합니다. 이렇게하면 새로운 코멘트가 페이지에 바로 표시되고, 사용자는 페이지 전체를 새로 고침하지 않아도 됩니다.
다른 예시로는, 사용자가 검색어를 입력하고, 자동완성 기능이 제공되는 검색 엔진이 있다고 가정해봅시다. 이 경우, 자바스크립트를 사용하여 사용자가 검색어를 입력할 때마다 서버에 요청을 보내고, 검색어와 일치하는 결과를 가져와서 페이지에 동적으로 업데이트할 수 있습니다. 이를 통해 사용자는 검색어를 입력할 때마다 자동완성 기능을 통해 빠르게 검색 결과를 확인할 수 있습니다.
// when the form is submitted, send an AJAX request to add the new comment
document.getElementById('comment-form').addEventListener('submit', function(event) {
// prevent the default form submission
event.preventDefault();
// get the input value and clear the input field
var commentText = document.getElementById('comment-input').value;
document.getElementById('comment-input').value = '';
// create a new XMLHttpRequest object
var xhr = new XMLHttpRequest();
// set up the request
xhr.open('POST', '/add_comment');
// set up the request headers
xhr.setRequestHeader('Content-Type', 'application/x-www-form-urlencoded');
// set up the request body
var requestBody = 'comment=' + encodeURIComponent(commentText);
// handle the response
xhr.onload = function() {
if (xhr.status === 200) {
// when the request is successful, add the new comment to the list
var newComment = document.createElement('li');
newComment.textContent = JSON.parse(xhr.responseText).comment;
document.getElementById('comment-list').appendChild(newComment);
} else {
alert('Failed to add comment');
}
};
// handle network errors
xhr.onerror = function() {
alert('Network error');
};
// send the request
xhr.send(requestBody);
});
// when the page loads, send an AJAX request to get the initial comments
var xhr = new XMLHttpRequest();
xhr.open('GET', '/get_comments');
xhr.onload = function() {
if (xhr.status === 200) {
// when the request is successful, add the initial comments to the list
var comments = JSON.parse(xhr.responseText).comments;
for (var i = 0; i < comments.length; i++) {
var comment = document.createElement('li');
comment.textContent = comments[i];
document.getElementById('comment-list').appendChild(comment);
}
} else {
alert('Failed to get comments');
}
};
xhr.onerror = function() {
alert('Network error');
};
xhr.send();
소프트웨어는 컴퓨터 시스템에서 사용되는 프로그램, 데이터, 명령 등 논리적인 부분을 의미한다. 소프트웨어는 컴퓨터 시스템의 동작을 제어하며, 사용자가 필요로 하는 기능을 수행하고, 데이터를 처리, 저장, 전송하는 역할을 한다. 소프트웨어는 대표적으로 다음과 같이 분류된다.
①.애플리케이션 소프트웨어 ②.시스템 소프트웨어 ③.라이브러리 ④.프로그래밍 언어
하드웨어(Hardware)
하드웨어는 컴퓨터 시스템의 물리적인 부분을 의미한다. 전자 기기로 구성된 하드웨어는 소프트웨어의 동작을 지원하고 사용자와 컴퓨터 시스템 간의 상호작용을 가능하게 한다. 하드웨어는 일반적으로 컴퓨터의 성능, 기능, 용량 등을 결정하는 역할을 수행한다. 대표적인 하드웨어 예시는 다음과 같다.
①.CPU ②.메모리 ③.저장장치 ④.입출력 장치 ⑤.모니터 ⑥.키보드
컴퓨터 시스템은 소프트웨어와 하드웨어의 상호 작용으로 구성되어 있다. 소프트웨어는 논리적인 부분을 담당하며, 다양한 기능과 데이터 처리를 수행한다. 반면 하드웨어는 물리적인 부분을 담당하며, 컴퓨터 시스템의 성능과 용량을 결정하고 사용자와의 상호작용을 지원한다. 이 두 요소가 서로 협력하여 컴퓨터 시스템이 원활하게 작동하도록 한다.
데이터베이스와 연동하여 데이터를 조작하는 프로그램 작성 시, 중요한 개념 중 하나는 DAO(Data Access Object)이다. Java에서의 DAO 개념과 사용 이유에 대해 설명하겠다.
Java에서 DAO는 Data Access Object의 약어로, 데이터베이스와 연동하여 데이터를 조작하는 객체를 말한다.
DAO는 데이터베이스와의 연결을 관리하고, 데이터베이스에서 데이터를 가져오거나 데이터를 저장하는 등의 역할을 수행한다. DAO는 보통 인터페이스로 작성되어 있고, 실제로는 이 인터페이스를 구현하는 클래스를 사용한다.
DAO는 데이터베이스와 비즈니스 로직 간의 결합도를 낮추는데 큰 역할을 한다. 데이터베이스가 변경되어도 비즈니스 로직이 영향을 받지 않도록 해주며, 코드의 재사용성과 유지보수성을 높여준다.
DAO를 사용하면 데이터베이스와의 연결과 데이터베이스 조작을 캡슐화할 수 있으므로, 비즈니스 로직에서는 단순히 DAO의 메서드를 호출함으로써 데이터베이스 조작을 수행할 수 있다. 이를 통해 코드의 가독성과 유지보수성을 높일 수 있다.
간단히 말해,DAO는 데이터베이스와 연동하여 데이터를 조작하는 객체로, 데이터베이스와 비즈니스 로직 간의 결합도를 낮추고 코드의 재사용성과 유지보수성을 높여주는 것이다.
예를 들어, 사용자 정보를 데이터베이스에서 가져오는 기능을 DAO를 사용하여 구현하는 예를 생각해 보겠다.
데이터베이스에서는 사용자 정보를 다음과 같은 형태로 저장할 수 있다.
User table
------------------------
| ID | Name | Address |
------------------------
| 01 | Tom | Seoul |
| 02 | Jane | Busan |
| 03 | Alice | Daegu |
------------------------
이때, 사용자 정보를 데이터베이스에서 가져와서 비즈니스 로직에서 사용하기 위해서는 DAO를 사용하여 다음과 같이 구현할 수 있다.
public interface UserDao {
List getAllUsers();
User getUserById(String id);
}
public class UserDaoImpl implements UserDao {
private Connection conn;
public UserDaoImpl(Connection conn) {
this.conn = conn;
}
@Override
public List getAllUsers() {
List users = new ArrayList<>();
try (Statement stmt = conn.createStatement()) {
String query = "SELECT * FROM User";
ResultSet rs = stmt.executeQuery(query);
while (rs.next()) {
String id = rs.getString("ID");
String name = rs.getString("Name");
String address = rs.getString("Address");
User user = new User(id, name, address);
users.add(user);
}
} catch (SQLException ex) {
ex.printStackTrace();
}
return users;
}
@Override
public User getUserById(String id) {
User user = null;
try (PreparedStatement pstmt = conn.prepareStatement("SELECT * FROM User WHERE ID = ?")) {
pstmt.setString(1, id);
ResultSet rs = pstmt.executeQuery();
if (rs.next()) {
String name = rs.getString("Name");
String address = rs.getString("Address");
user = new User(id, name, address);
}
} catch (SQLException ex) {
ex.printStackTrace();
}
return user;
}
}
위와 같이 UserDao 인터페이스를 정의하고, UserDaoImpl 클래스를 구현하여 DAO를 구현할 수 있다. UserDaoImpl 클래스에서는 Connection 객체를 사용하여 데이터베이스와 연결하고, getAllUsers() 메서드와 getUserById() 메서드를 구현하여 사용자 정보를 가져올 수 있다. 이를 통해 데이터베이스와 비즈니스 로직 간의 결합도를 낮추고, 코드의 재사용성과 유지보수성을 높일 수 있는 것이다.
DAO와 DTO는 둘 다 데이터베이스와 연관된 기능을 수행하는 객체이지만, 각각의 역할과 목적이
다르다.
DAO는 데이터베이스와 연결을 관리하고, 데이터베이스에서 데이터를 가져오거나 데이터를 저장하는 등의 역할을 수행한다. 즉, DAO는 데이터베이스와의 연결과 데이터베이스 조작을 캡슐화하는 객체이다.
"조작을 캡슐화한다"는 말은, 데이터베이스와의 조작을 한 곳에 모아서 캡슐화하는 것을 의미. 이것은 다시 말해, 데이터베이스와의 연결을 추상화하고, 데이터베이스에서 데이터를 가져오는 방법과 저장하는 방법을 명확하게 구분하는 것.
예를 들어, DAO를 사용하지 않고 직접 데이터베이스와 연결하여 SQL 쿼리를 작성하고 데이터를 가져오는 코드를 작성한다면, 코드가 복잡해지고 유지보수가 어려워지는데, 이 때, DAO를 사용하면 데이터베이스 연결과 SQL 쿼리 작성 등을 한 곳에서 캡슐화하므로, 코드가 간결해지고 유지보수가 쉬워진다.
반면, DTO는 데이터를 전송하는데 사용되는 객체로, 데이터베이스나 외부 시스템에서 가져온 데이터를 비즈니스 로직에서 사용하기 쉽게 변환해주는 역할을 한다. DTO는 데이터를 전송하는 과정에서 데이터를 캡슐화하고, 비즈니스 로직과 데이터베이스 간의 데이터 교환을 단순화한다.
따라서 DAO와 DTO는 각각의 역할과 목적이 다르다. DAO는 데이터베이스와의 연결과 데이터베이스 조작을 캡슐화하며, DTO는 데이터 전송을 캡슐화한다. DAO와 DTO는 데이터베이스와 연동하는 기능을 구현하는 데 사용되는 객체이지만, 다른 방식으로 된다.
사용자가 로그인을 시도하면 클라이언트는 사용자가 입력한 정보를 서버로 전송하고, 서버는 해당 정보를 검증하여 로그인 결과를 클라이언트로 전송한다. 이때 DTO는 클라이언트와 서버 간의 데이터 전송을 캡슐화하는 데 사용된다.
또한, DTO는 서버 사이드에서도 사용될 수 있다. 예를 들어, 서버 사이드에서 데이터베이스에서 가져온 정보를 DTO로 변환하여 비즈니스 로직으로 전달할 수 있다. 이를 통해 비즈니스 로직에서 데이터베이스와의 결합도를 낮추고, 데이터 전송 시 데이터의 무결성을 보장할 수 있다.
DAO로 데이터베이스 연결을 한다면, 일반적으로 최초 1회에 한해 연결이 수행된다. 이후 DAO 객체를 재사용하면 이미 연결된 데이터베이스와 계속해서 작업할 수 있다.
하지만, 연결된 데이터베이스와 일정 시간 이상 연결이 유지되지 않으면 연결이 끊어지는 경우도 있다. 이 경우 DAO 객체를 다시 사용하기 전에 데이터베이스와 연결을 다시 수행해야 한다.
DAO는 데이터베이스와 연결하여 데이터를 조작하는 기능을 담당한다. 이를 통해 비즈니스 로직에서 데이터베이스와의 결합도를 낮추고, 코드의 재사용성과 유지보수성을 높일 수 있다.
DAO로 데이터베이스를 조작하는 방법은 다양하다. 보통 "JDBC(Java Database Connectivity) API"를 사용하여 데이터베이스와의 연결 및 데이터 조작을 수행한다.
JDBC는 Java에서 데이터베이스와의 연결을 위한 표준 API로, 다양한 데이터베이스와 호환된다.
DAO에서는 JDBC API를 사용하여 SQL문을 작성하고, 이를 데이터베이스에 전달하여 데이터를 조작한다. SQL문은 SELECT, INSERT, UPDATE, DELETE 등의 다양한 종류가 있으며, 데이터베이스와 상황에 따라 적절한 SQL문을 사용하여 데이터를 처리한다.
또한, DAO에서는 JDBC API를 사용하여 데이터베이스 연결 및 연결 해제, 데이터 삽입, 수정, 삭제 등의 기능을 수행한다. 이러한 기능을 캡슐화하여 비즈니스 로직에서는 DAO의 메서드를 호출함으로써 데이터베이스 조작을 수행할 수 있다.
따라서, DAO는 JDBC API를 사용하여 데이터베이스와 연결하고, SQL문을 작성하여 데이터를 조작하고. 이를 통해 데이터베이스와 비즈니스 로직 간의 결합도를 낮추고, 코드의 재사용성과 유지보수성을 높일 수 있는 친구다.
웹 크롤링(Web Crawling)은 인터넷 상의 웹 페이지에서 데이터를 모으거나 추출하는 과정을 의미한다. 크롤러(Crawler)로도 불리며, 다양한 웹 페이지를 찾아가 정보를 수집한 후, 분석 및 가공하여 원하는 정보를 얻어내는 작업을 수행한다.
웹 크롤링은 대개 자동화된 프로그램을 이용해 진행되며, 이를 통해 인터넷에 있는 다양한 정보들을 취합하고 분석할 수 있다. 그 결과, 특정 웹 사이트나 주제에 대한 정보를 쉽게 모으고 분석할 수 있다.
보통 웹 크롤링은 두 가지 방법으로 이루어진다.
첫 번째 방법은 웹 페이지의 HTML 소스 코드를 직접 다운로드하여 데이터를 추출하는 방식이다.
두 번째 방법은 웹 API(Application Programming Interface)를 활용하여 데이터를 추출하는 방식이다.
그러나 웹 크롤링은 불법적인 목적으로 사용될 가능성도 있고, 많은 웹 페이지를 무차별적으로 방문하여 데이터를 모으는 것은 웹 사이트에 부담을 줄 수 있다. 그래서 웹 크롤링을 할 때는 관련 법률과 웹 사이트의 이용 규정을 따르고, 부담을 줄이기 위해 적절한 지연 시간을 두는 등의 조치를 취해야 한다.
웹 크롤러 봇이란 무엇인가? 웹 크롤러 봇(Web Crawler Bot)은 웹 페이지를 찾아가 데이터를 모으는 봇(Bot) 중 하나로, 크롤링 작업을 자동화한 프로그램이다. 봇이란 자동화된 프로그램을 가리키며, 웹 크롤러 봇은 웹 페이지를 찾아가 데이터를 모으고, 이를 분석하여 필요한 정보를 추출하는 작업을 자동화하여 수행한다.
웹 크롤러 봇은 주로 검색 엔진에서 활용된다. 검색 엔진은 많은 웹 페이지를 크롤링하여 내용을 색인화하고, 이를 바탕으로 검색 결과를 제공한다. 이런 검색 엔진은 웹 크롤러 봇을 이용해 웹 페이지를 자동으로 크롤링하여 정보를 모으고, 이를 색인화한다.
웹 크롤러를 이용해 사용자가 자주 방문한 키워드로 광고를 볼 수 있게 할 수 있을까?
사용자가 자주 방문한 키워드를 기반으로 광고를 제공하는 것은 가능하다.
이를 위해서는 사용자가 방문한 웹 페이지의 정보를 수집하고, 이를 분석하여 사용자의 관심사를 파악하는 과정이 필요하다. 웹 크롤러를 이용하여 사용자가 방문한 웹 페이지의 정보를 수집할 수 있으며, 이를 통해 사용자의 관심사를 파악하고 이에 맞는 광고를 제공할 수 있다.
하지만, 이를 위해서는 사용자의 동의가 필요하며, 개인정보 보호와 관련된 법령을 준수해야 한다. 또한, 사용자가 방문한 웹 페이지의 정보를 수집할 때에는 해당 웹 페이지의 이용 규정을 준수해야 하며, 부담을 덜어내기 위해 적절한 딜레이를 두는 등의 조치를 취해야 한다.
또한, 이러한 기능을 제공하기 위해서는 웹 사이트 운영자와의 협업이 필요하다. 사용자가 방문한 웹 페이지의 정보를 수집하고, 이를 기반으로 광고를 제공하는 것은 해당 웹 페이지의 운영자와의 계약이나 협의를 통해 이루어져야 한다. 따라서, 이를 위해서는 웹 사이트 운영자와의 협력과 협업이 필수적이다.
웹 크롤러를 이용하여 사용자가 방문한 웹 페이지의 정보를 어떻게 수집 할까?
웹 크롤러는 HTTP 프로토콜을 통해 웹 페이지의 HTML 코드를 수집한다. 웹 페이지의 HTML 코드는 웹 브라우저에서 해당 페이지를 열었을 때 보이는 내용을 구성하는 코드로, 웹 크롤러는 이 코드를 분석하여 다양한 정보를 추출해요. 이를 위해 웹 크롤러는 다양한 기술을 사용하여 HTML 코드를 분석하고, 필요한 정보를 추출한다.
예를 들어, 웹 페이지에서 상품 정보를 수집하는 경우, 웹 크롤러는 웹 페이지의 HTML 코드에서 상품 정보를 구성하는 태그를 찾아내고, 해당 태그의 속성 값을 추출한다. 이후, 추출한 상품 정보를 데이터베이스나 파일 등에 저장하여, 다양한 용도로 활용할 수 있다.
그리고, 웹 크롤러는 자동화된 방식으로 웹 페이지를 탐색하기 때문에, 수집 대상 페이지에 대한 URL 목록을 수동으로 입력하는 것보다 더 많은 정보를 수집할 수 있어요. 이러한 특성을 이용하여, 웹 크롤러는 다양한 용도로 활용된다.
웹 크롤러와 알고리즘의 연관성 웹 크롤러와 알고리즘은 밀접한 관련이 있다. 웹 크롤러는 웹 페이지에서 데이터를 추출하기 위한 알고리즘을 포함한다. 이 알고리즘은 웹 페이지의 HTML 소스 코드를 분석하고, 필요한 정보를 추출하기 위해 사용된다. 예를 들어, 웹 크롤러는 웹 페이지의 링크를 추출하고, 이를 따라가며 다른 웹 페이지를 방문하여 데이터를 추출할 수 있다. 이러한 작업에서 사용되는 알고리즘은 BFS(Breadth-First Search)나 DFS(Depth-First Search) 등과 같은 그래프 탐색 알고리즘을 기반으로 한다.
또한, 웹 크롤러는 데이터 수집을 위해 여러 가지 알고리즘을 사용할 수 있다. 예를 들어, 특정 웹 페이지에서 특정 패턴을 찾아내기 위해 정규 표현식을 사용할 수 있고, 텍스트 마이닝 알고리즘을 사용하여 키워드를 추출할 수도 있다.
마지막으로, 웹 크롤러에서는 데이터 추출 과정에서 생기는 문제를 해결하기 위해 다양한 알고리즘을 사용할 수 있다. 예를 들어, 크롤러가 반복해서 이미 방문한 웹 페이지를 다시 방문하는 경우를 해결하기 위해, 이전에 방문한 웹 페이지를 기억하는 알고리즘을 사용할 수 있다. 이렇게 웹 크롤러에서 사용되는 알고리즘은 데이터 수집 및 분석을 효과적으로 수행하는 데 필수적이다.
웹 크롤러 봇은 JS코드를 읽을 수 없을까?
크롤러 봇은 JavaScript 코드를 읽을 수는 있지만, 이를 분석하는 데 제약이 있을 수 있다.
대부분의 웹 크롤러는 JavaScript 코드를 실행하지 않고, HTML 소스 코드만을 분석한다.
이는 대부분의 웹 페이지에서는 문제가 없지만, 최근에는 JavaScript를 이용한 동적 웹 페이지가 많이 등장하면서, 웹 크롤러에서는 JavaScript 코드를 실행하는 경우가 더 많아지고 있다.
그러나, 웹 크롤러가 JavaScript 코드를 정확히 실행할 수 있는 것은 아니다. JavaScript 코드에는 동적으로 생성되는 요소나, 비동기로 로딩되는 요소 등이 있을 수 있으며, 이를 웹 크롤러가 정확히 처리하지 못할 경우, 데이터 수집에 문제가 생길 수 있다.
따라서, 웹 크롤러를 개발할 때에는 웹 페이지의 구조와 JavaScript 코드를 정확하게 분석하여, 필요한 데이터를 정확하게 수집할 수 있도록 구현해야 한다. 또한, 웹 페이지에서 동적으로 로딩되는 데이터를 수집하기 위해서는 AJAX 등의 기술을 사용하여, JavaScript 코드를 실행하고, 동적으로 생성되는 요소를 처리해야 한다.
일부 광고주들이 사용자의 검색 기록이나 이전 검색 내역 등을 바탕으로 광고를 보이는 것이 있다는건, 웹 크롤러가 유저의 데이터를 수집한 것을 광고주가 가져왔다는 것일까?
일반적으로 광고주들은 웹 크롤러를 사용하여 사용자의 검색 기록이나 이전 검색 내역 등을 수집하지는 않는다. 대신, 광고주들은 검색 엔진 등의 기술을 이용하여 사용자의 검색어를 수집하고, 이를 바탕으로 광고를 타겟팅한다.
예를 들어, 광고주가 특정 키워드를 타겟팅하기 위해 구글 애드워즈와 같은 광고 서비스를 이용하는 경우, 광고주는 특정 키워드에 대한 광고를 등록한다. 이후, 사용자가 해당 키워드로 검색할 경우, 광고 서비스는 사용자의 검색어를 수집하고, 이를 바탕으로 해당 광고를 노출한다.
이러한 광고는 광고 서비스에서 제공하는 기능으로, 광고주가 사용자의 개인정보를 수집하는 것은 불법적인 활동이다. 따라서, 광고주들은 사용자의 검색어 등을 수집하기 위해 웹 크롤러를 사용하는 것은 아니며, 광고 서비스를 이용하여 검색어를 수집한다.
검색 엔진을 이용하여 수집되는 검색어는 검색 엔진에서 제공하는 검색 서비스를 이용하는 모든 사용자들의 검색어를 수집한다. 따라서, 네이버나 다음과 같은 검색 엔진에서 제공하는 검색 서비스를 이용하는 모든 사용자들의 검색어가 수집 대상이 된다.
또한, 검색 엔진은 웹 크롤러를 이용하여 전체 인터넷 상의 웹 페이지를 수집한다. 이때, 웹 크롤러는 검색 엔진에서 설정한 기준에 따라 웹 페이지를 수집하게 되며, 이를 바탕으로
검색 엔진에서 검색 결과를 생성한다. 따라서, 검색 엔진을 이용하여 수집되는 정보는 검색어뿐만 아니라, 웹 페이지 내용, 링크 정보 등 다양한 정보를 수집한다.
검색엔진에 대하여
검색 엔진은 웹 페이지 내용, 링크 정보 등 다양한 정보를 수집한다. 검색 엔진은 크롤러라는 프로그램을 사용하여 웹 페이지를 수집하고, 이를 인덱싱하여 검색어에 대한 검색 결과를 제공한다. 크롤러는 웹 페이지의 HTML 코드를 수집하며, 이를 파싱하여 웹 페이지 내용을 추출하고, 링크 정보를 수집하여 다음에 방문할 웹 페이지를 결정한다.
검색 엔진에서 수집되는 정보는 검색어, 웹 페이지 내용, 링크 정보 뿐만 아니라, 이미지, 동영상, 문서 파일 등 다양한 종류의 정보를 수집한다. 이러한 정보들은 검색 결과 페이지에 표시되며, 검색 결과 페이지에서 사용자는 원하는 정보를 찾을 수 있다.
따라서 검색 엔진은 다양한 정보를 수집하여 사용자에게 제공하며, 이를 위해 크롤러라는 프로그램을 사용한다.
유저가 웹사이트에 방문하면 브라우저에서 서버로 콘텐츠를 요청. 서버에서는 즉시 페이지에 필요한 데이터를 얻어와 모두 삽입 하고 css 까지 모두 적용해서 렌더링 준비를 마친 html,js code를 브라우저에 응답으로 전달. 브라우저에서는 바로 전달 받은 페이지를 띄우고. 이어 브라우저가 js code를 다운로드 하고 html에 js 로직을 연결한다
먼저 서버에서 렌더링 준비를 마친 HTML을 브라우저의 응답으로 전달한다는 부분인데
모든 데이터가 이미 HTML에 담겨진 채로 브라우저에 전달되기 때문에 검색엔진 최적화에 유리하다.
JS를 실행 할 줄 모르는 크롤러 봇도 무리 없이 HTML을 읽을 수 있다.
또 하나, 자바스크립트 코드를 다운로드 받고 실행하기 전에 사용자가 화면을 볼 수 있다는 점이다.
JS 다운로드를 기다려야했던 CSR보다 빠를 수 밖에 없다.
하지만 동시에 이것이 치명적인 단점이 되기도 하는데
이 시점에는 사용자가 버튼을 클릭 하거나 이동하려고 해도 아무런 반응이 없을 수 있다.
interaction(상호작용) 가능한 page 처럼 보이지만, 그저 내용과 스타일이 입혀진 껍데기에 불과하고, 실제로 클라이언트 측 JS가 실행되고 이벤트 핸들러가 첨부되어서 JS로직이 모두 연결될때 까지 사용자 입력에 응답할 수 없기 때문이다.사용자 입장에서는 뭔가 보여서 눌렀는데.
DI는 private UploadFileDAO uploadFileDAO즉 DAO에 담긴 객체를 내게 달라는 뜻이다.
@RequiredArgsConstrutor는
final 생성자를 재료로 삼아서, 매개변수를 만들어 준다.
그렇게 되면 객체 연관관계 , 즉 sql의 pk,fk와 같이 app같에도 객체와 객체사이 참조가 되버린다.
여기선 uploadFileDAOImpl과 NamedParameterJDBCTemplate이 그 관계다.
insert into code (code_id,decode,pcode_id,useyn) values('F01','첨부파일',null,'Y');
insert into code (code_id,decode,pcode_id,useyn) values('F010301','상품관리_일반','F01','Y');
insert into code (code_id,decode,pcode_id,useyn) values('F010302','상품관리_이미지','F01','Y');
F01은 파일 첨부다.
스프링프레임이 관리하는 객체를 Bean이라고 한다.
이제 SaveForm에서
private List<MultipartFile> attachFiles; // 일반파일
private List<MultipartFile> imageFiles; // 이미지파일 이렇게 해서 이미지,파일을 받을 수 있다.
단건으로 할려면
MulipartFile attachFile로 하면 됨.
그럼 saveform요청메세지 body에 담겨져 온다.
multipartFileTouploadFile
여기서 AttachfileType aa = AttachFileType.F010301
로 해서 이넘 타입의 상수 값을 가질 수 있다 .
여기서 aa앞에 있는 AttachfileType의 값만 소환 가능.
Enum은 한정된 값을 정한 타입이다. ex)요일,성별 등 정해진 값.
@Transaction은 논리적 최소 단위다 2 or not 즉 2개의 로직이 실행되지않으면 아예 실행안되는 것이다.